AWS re:Invent: Amazon Web Services mit schnellerer Hardware, mehr Middleware und neuen Admin-Tools
[ad_1]
Amazon Web Services (AWS) hat auf seiner fünften Entwicklerkonferenz AWS re:Invent den über 30.000 Teilnehmern eine Reihe neuer Dienste und Funktionen präsentiert.
Wie üblich hat Amazon auf seiner diesjährigen Hausmesse AWS re:Invent in Las Vegas sehr viel Neues vor allem im Umfeld der Instanz-Typen sowie eine Reihe an Verbesserungen beziehungsweise Erweiterungen für die Amazon Web Services (AWS) angekündigt. Da ist zunächst die neue R4-Instanz, die vor allem für speicherintensive Applikation gedacht ist. R4 bietet gegenüber dem bisherigen R3 den doppelten Hauptspeicher (488 GByte, DDR4) und eine doppelt so schnelle 64-Bit-CPU (Xeon E5-2686 v4 “Broadwell”).
Alt und neu gegenübergestellt
Bild: Harald Weiss
Noch mehr Instanzen
Erweitert wurden auch die T2-Instanzen, die normalerweise für Webservices und kleine Datenbankanwendungen genutzt werden. Hier gibt es jetzt die Instanzen T2.xlarge und T2.2xlarge. Beide nutzen eine 64-Bit-Plattform. xlarge verfügt über 16 GByte, 2xlarge über 32 GByte, das ist viermal so viel wie bislang.
An die Nutzer von NoSQL-Datenbanken wie Cassandra oder Mongo DB sowie für die Hadoop-Freunde gibt es jetzt eine besonders schnelle IOPS-Instanz. Die neue I3- bietet neunmal so viele IOPS wie die bisherige I2-Instanz. Auch die bisherige C4- wird durch eine doppelt so schnelle C5-Instanz ersetzt. Diese Geschwindigkeitsverbesserung wird damit erreicht, dass jetzt Intels Skylake-Prozessoren die bisherigen Haswell-Chips ersetzen. Amazon empfiehlt die C5-Instanz für Machine Learning, Multimedia und technisch-wissenschaftliche Anwendungen.
Futter für Entwickler
Für Entwickler ist vor allem der neue Instanz-Typ F1 mit Field-Programmable Gate Arrays (FPGA) interessant. FPGAs sind zwar noch lange kein Mainstream, aber das Interesse an diesen programmierbaren Chips steigt rapide an, da die Preise deutlich gefallen sind. Amazon verwendet für seine FPGAs die Chips von Xilinx, die über 64 GByte Speicher und einem 288 Bit breiten Bus verfügen. Außerdem steht ein virtuelles JTAG-Interface fürs Debugging zur Verfügung. Hinzu kommen weitere Tools, mit denen es möglich ist, diese FPGAs mit C oder C++ zu programmieren.
Die häufigsten FPGA-Anwendungen sind der Ersatz der GPUs beispielsweise für Machine-Learning-Anwendungen. Beispielsweise kann man diese Chips so konfigurieren, dass man damit zunächst RAW Images sehr schnell bearbeitet. Anschließend werden sie dann umkonfiguriert, um mithilfe von Deep Learning den Kontext der Bilder zu ermitteln. Auch NGCodec, einer der bisherigen Pilotkunden, hat Amazons FPGAs für seine VR/AR-Verarbeitung eingesetzt. Amazon folgt damit Microsoft, die FPGAs für die Azure-Plattform bereits im September auf der Ignite-Konferenz angekündigt hatten. Die AWS-FPGAs stehen zunächst nur als Preview an der US-Ostküste zur Verfügung, doch noch in diesem Jahr sollen sie auch weltweit angeboten werden. Einen Preis hat Amazon noch nicht dazu genannt.
Faire Verteilung der Künstlichen Intelligenz
Zusätzlich zu den neuen und schnelleren Hardware-Instanzen und den neuen Plattformen gab es deutliche Erweiterungen bei der Middleware – vor allem im Bereich Datenbanken und Künstliche Intelligenz. Für Letztere wurden drei neue Dienste angekündigt, die sich vor allem gegen IBMs und Microsofts Cloud-KI-Angebote richten. Dabei handelt es sich um die intelligente Text-to-Speech-Anwendung Polly, den Sprach-Analyse-Service Lex und der Bilderkennungssoftware Rekognition.
Der gesamte KI-Bereich hat bei AWS einen besonders hohen Stellenwert. “Der Erfolg des Amazon-Online-Shops basiert zum großen Teil auf der intensiven Nutzung von KI, die dabei gewonnenen Lösungen und Erfahrungen geben wir an die AWS-Anwender weiter”, sagt AWS-Chef Andy Jassy über die Hintergründe dieser Aktivitäten in seiner Eröffnungsrede. Damit widersprach er auch der Vermutung, dass Amazon die eigenen Online-Shops auf der AWS-Plattform gegenüber den Konkurrenten bevorzugen würde. “Unser Online-Shop läuft auf der AWS-Plattform und nutzt exakt dieselben Services wie etwa unser Konkurrent Netflix – da gibt es keinerlei Unterschiede”, war sein Hinweis auf diese immer wieder diskutierten Sachverhalt.
AWS-Chef Andy Jassy stellte die Vielzahl der Neuerungen selbst vor.
Bild: Harald Weiss
Reaktion auf Oracle
Auch fehlten nicht die Seitenhiebe gegen Oracle. Nach dem deren Software-Chef Larry Ellison auf der jüngsten Oracle World deren neues Cloud-Angebot praktisch ausschließlich gegen Amazon positioniert hatte, gab es jetzt die Retourkutsche. Zwar wurde weder Oracle noch Ellison namentlich erwähnt, doch jeder der 32.000 Teilnehmer wusste genau, was mit einer “kommerziellen Datenbank, die proprietär und teuer ist und nur mit komplexen Lizenzierungsvereinbarungen zu erhalten ist”, gemeint ist. Amazons Antwort darauf ist die zukünftige Unterstützung von PostgreSQL bei seiner Aurora-Datenbank. PostgreSQL ist kompatibel zu Oracles RDS-Datenbank und bietet damit den Oracle-Anwendern eine kostengünstige Alternative auf der AWS-Plattform.
Aurora ist Amazons Antwort auf die Angriffsversuche von Oracle.
Bild: Harald Weiss
Letztlich gab es auch neue Tools für die Administratoren. Für sie wurde Lightsail vorgestellt. Dabei handelt es sich um eine Konfigurationsplattform, auf der sich in nur fünf Schritten virtuelle private Server zum Hosten von Webseiten einrichten lassen. “Gib uns deine IP-Adresse und ein paar Volumen-Angaben – den Rest erledigen wir dann automatisch”, lautet Jassys Aufforderung an die kleineren AWS-Kunden. (ane)
[ad_2]
Read more on: Source