/ Software-Entwicklung / Android Things: Zweite Developer Preview erweitert native Schnittstellen

Android Things: Zweite Developer Preview erweitert native Schnittstellen

androidthings-2033a65127b6a300.jpeg
Gerfried Steube an Februar 12, 2017 - 10:50 pm in Software-Entwicklung

Die Native-PIO-API ermöglicht die Anbindung an diverse I/O-Geräte mit C/C++-Code. Außerdem haben die Macher ein Beispiel zur Verwendung von TensorFlow zur Bilderkennung veröffentlicht.

Google hat die zweite Developer Preview von Android Things veröffentlicht. Mit der Software soll Android in die Welt des IoT (Internet of Things) einziehen. Die nun erschienene Vorschauversion trägt der Tatsache Rechnung, dass Entwickler für Anwendungen im Internet der Dinge häufig C und C++ einsetzen. Neben der besseren Performance ermöglichen die Sprachen eine hardwarenähere Programmierung als Java. Googles Betriebssystem bietet zur Entwicklung mit C/C++ von Haus aus das NDK (Native Development Kit), das auch von Android Things unterstützt wird.

Die wesentliche Neuerung in der zweiten Developer Preview ist die Einbindung der Native PIO Library für Android NPK. Mit ihr lassen sich unter anderem GPIO (Allzweckschnittstellen), I²C (Inter-Integrated Circuit) und UART (Universal Asynchronous Receiver Transmitter) in C/C++ auf dieselbe Art ansprechen wie in Java über die Peripheral I/O von Android. Entwickler sollen so vorhandenen C/C++-Code in Android Things ohne große Änderungen wiederverwerten können.

Treiberbibliothek und maschinelles Lernen

Ebenfalls neu ist eine Bibliothek mit von Anwendern erstellten Treibern für spezielle Hardware-Interfaces wie Sensoren und Displays. Das Repository ist auf GitHub zu finden. Dort hat das Team zudem einige Beispiele veröffentlicht, die Entwicklern beim Schreiben eigener Treiber mit der User Driver API helfen sollen.

Zur Auswertung der Daten bringen die Macher die vom Google Brain Team initiierte, quelloffene TensorFlow-Bibliothek ins Spiel. Ein auf GitHub verfügbares Beispielprojekt nimmt ein Bild mit einer angeschlossenen Kamera auf und verwendet TensorFlow dazu, den Inhalt zu erkennen. Anschließend gibt es das Ergebnis mit Text-to-Speech über einen angeschlossenen Lautsprecher aus. Das Beispiel beinhaltet eine native Bibliothek, sodass sich die Android-Anwendung ohne NDK-Toolset bauen lässt.

Google
Das TensorFlow-Beispiel erweitert im Basisaufbau einen Raspi 3 um einige wenige elektronische Bauteile. Vergrößern
Bild: Google

Weitere Details stehen im Blogbeitrag zur Android Things Developer Preview 2. Eine detaillierte Auflistung der Neuerungen findet sich in den Release Notes. Images für Raspberry Pi 3, NXP, Intel Edison und Joule sind auf der Downloadseite zu finden. Für Details zu den Developer Kits existiert eine eigenen Seite. (rme)

Read more on: Source

Kommentare sind deaktiviert