Amazon Translate: Support für Japanisch, Russisch, Italienisch, traditionelles Chinesisch, Türkisch und Tschechisch
Amazon´s Übersetzungs Service Amazon Translate der auch für das Polly WordPress Plugin zum Einsatz kommt (siehe hier) unterstützt ab sofort auch Japanisch, Russisch, Italienisch, traditionelles Chinesisch, Türkisch und Tschechisch.
Weitere Informationen zu Amazon Translate hier.
EC2 Instanzen für Snowball Edge
Amazon bietet die Möglichkeit EC2 Instanzen auf Snowball Edge Geräten laufen zu lassen. Sownball Edge ist ein Stand Alone Gerät um große Datenmengen zu AWS zu exportieren indem einfach das komplette Device per Post an Amazon gesendet wird.
Mit der Möglichkeit eigene Amazon Machine Images auf diesen Geräten ausführen zu können, können die lokal anfallenden Daten effektiv vor-verarbeitet werden.
Besonders nützlich kann dieses Szenario in Umgebungen mit keiner oder nur eingeschränkter Internet Konnektivität sein.
Weitere Informationen zu Snowball Edge Funktionen hier.
EC2 – Neue Instanztypen
z1d
Dieser neue Instanztyp basiert auf Intel Xenon Prozessoren mit bis zu 4.0 GHz und ist besonders für Rechenintensive Workloads beispielsweise HPC Anwendungen interessant. Darüber hinaus können Anwendungen die pro CPU bezahlt werden wie einige Datenbanken von der Mehrleistung pro CPU profitieren. Der Instanztyp ist in folgenden Konfigurationen verfügbar.
Instance Name | vCPUs | Memory | Local Storage | EBS-Optimized Bandwidth | Network Bandwidth |
z1d.large | 2 | 16 GiB | 1 x 75 GB NVMe SSD | Up to 2.333 Gbps | Up to 10 Gbps |
z1d.xlarge | 4 | 32 GiB | 1 x 150 GB NVMe SSD | Up to 2.333 Gbps | Up to 10 Gbps |
z1d.2xlarge | 8 | 64 GiB | 1 x 300 GB NVMe SSD | 2.333 Gbps | Up to 10 Gbps |
z1d.3xlarge | 12 | 96 GiB | 1 x 450 GB NVMe SSD | 3.5 Gbps | Up to 10 Gbps |
z1d.6xlarge | 24 | 192 GiB | 1 x 900 GB NVMe SSD | 7.0 Gbps | 10 Gbps |
z1d.12xlarge | 48 | 384 GiB | 2 x 900 GB NVMe SSD | 14.0 Gbps | 25 Gbps |
R5 und R5d
R5 ist der Nachfolger des R4 Instanztyps und basiert auf Intel CPU´s mit bis zu 3.1 GHz und ist für Anwendungen die sehr viel Arbeitsspeicher benötigen gedacht. Die R5d Instanzen haben die selben Spezifikationen wie die R5 Instanzen, besitzen aber schnelleren Plattenspeicher der per NVMe angebunden ist. R5 Instanzen sind mit folgenden Spezifikationen verfügbar.
Instance Name | vCPUs | Memory | EBS-Optimized Bandwidth | Network Bandwidth |
r5.large | 2 | 16 GiB | Up to 3.5 Gbps | Up to 10 Gbps |
r5.xlarge | 4 | 32 GiB | Up to 3.5 Gbps | Up to 10 Gbps |
r5.2xlarge | 8 | 64 GiB | Up to 3.5 Gbps | Up to 10 Gbps |
r5.4xlarge | 16 | 128 GiB | 3.5 Gbps | Up to 10 Gbps |
r5.12xlarge | 48 | 384 GiB | 7.0 Gbps | 10 Gbps |
r5.24xlarge | 96 | 768 GiB | 14.0 Gbps | 25 Gbps |
Weitere Informationen zu EC2 Instanz Typen hier.
Amazon Polly: Zeit basierter Satzrhythmus und asynchroner Aufruf
Amazon Polly bietet ab sofort die Möglichkeit den Satzrhythmus (Prosody) zu beeinflussen. Der Satzrhythmus wird durch die Angabe einer Maximalzeit für einen Textabschnitt variiert. Jeder Block kann dabei maximal 1500 Zeichen aufnehmen.
Um lange Texte in Sprache zu synthetisieren bietet Amazon jetzt eine asynchrone Schnittstelle die bis zu 100k Zeichen pro Aufruf erlaubt und das Ergebnis direkt in S3 speichert. Nach erfolgreiche Synthese erhält der Aufrufer eine entsprechende Mail.
Weitere Infos zu Amazon Polly hier.
Amazon SageMaker Batch Transform und Pipe Input Mode für Tensorflow Container
Amazons ML Model Training Tool SageMaker hat die neuen Features Batch Transform für die Transformierung von großen Sätzen an Eingangsdaten, sowie Pipe Input Mode für Tensorflow Container erhalten.
Batch Transform
Dieses neue Feature kann Beispielsweise für die Objekterkennung in einer großen Anzahl von Bildern genutzt werden.
Pipe Input Mode für Tensorflow
Trainingsdatensätze können jetzt direkt von S3 in den Container gestreamt werden. Das neue Feature bietet eine deutlich gesteigerte Performance gegenüber der File Input Variante bei der Die Daten zuerst auf das EBS Volume kopiert werden mussten.
Das hat zur Folge das der Trainingsjob schneller startet und auch weniger Plattenplatz benötigt und damit die Kosten für das trainieren des ML Models sinken.
Weiter Informationen zu SageMaker hier.