Allgemeines

F: Was ist Amazon Rekognition?

Amazon Rekognition ist ein Service, mit dem Sie einfach Bildanalysen zu Ihren Anwendungen hinzufügen können. Rekognition Image ermöglicht die einfache Erstellung leistungsfähiger Anwendungen zum Suchen, Überprüfen und Organisieren von Millionen von Bildern. Rekognition Video ermöglicht die Extraktion von bewegungsbasiertem Kontext aus gespeicherten oder live gestreamten Videos und hilft Ihnen bei der Analyse.

Rekognition Image ist ein Bilderkennungsservice, der Objekte, Szenen, Aktivitäten, Orientierungspunkte, Gesichter, dominante Farben und die Bildqualität erkennt. Rekognition Image extrahiert auch Text, erkennt Berühmtheiten und identifiziert unangemessene Inhalte in Bildern. Außerdem können Sie damit Gesichter suchen und vergleichen.

Rekognition Video ist ein Videoerkennungs-Service, der Aktivitäten erkennt, die Bewegungen von Menschen in Bildern versteht und Objekte, bekannte Persönlichkeiten und unangemessene Inhalte in Videos erkennt, die in Amazon S3 gespeichert sind oder live gestreamt werden. Rekognition Video erkennt Personen und verfolgt sie durch das Video, auch wenn ihre Gesichter nicht zu sehen sind oder die jeweilige Person aus der Szene heraus- oder in die Szene hineingeht. Diese Funktionalität kann beispielsweise im Rahmen einer Anwendung eingesetzt werden, die Sie benachrichtigt, wenn der Paketbote vor Ihrer Haus- oder Wohnungstür steht. Rekognition Video ermöglicht außerdem, Metadaten wie Objekte, Aktivitäten, Szenen, Wahrzeichen, bekannte Persönlichkeiten und Gesichter aufzuzeichnen. Dies erleichtert das Durchsuchen von Videos.

F: Was ist Deep Learning?

Deep Learning ist ein Unterbereich des Machine Learning und spielt eine wichtige Rolle im Fachgebiet künstliche Intelligenz. Beim Deep Learning werden auf Grundlage von Rohdaten Abstraktionen auf hoher Ebene abgeleitet. Dafür wird ein tiefes Netz mit mehreren Verarbeitungsschichten durchlaufen, in denen verschiedene lineare und nicht lineare Transformationen stattfinden. Deep Learning ist an die Fähigkeiten der Informationsverarbeitung und Kommunikation des menschlichen Gehirns angelehnt. Es ersetzt manuelle Funktionen durch Funktionen, die auf Grundlage riesiger Datenmengen erlernt wurden. Der Lernprozess erfolgt durch die sich wiederholende Beurteilung Hunderttausender Parameter im tiefen Netz, wobei effiziente Algorithmen genutzt werden.

Mehrere Deep Learning-Architekturen wie CNNs (Convolutional Deep Neural Networks) und rückgekoppelte neuronale Netze wurden auf Technologien für maschinelles Sehen, Spracherkennung, Verarbeitung natürlicher Sprache und Erkennung von Audio angewendet, um herausragende Ergebnisse bei der Umsetzung verschiedenster Aufgaben zu erzielen.

Amazon Rekognition gehört zur Familie der Amazon AI-Dienste. Die Amazon KI-Dienste verwenden Deep Learning, um Bilder zu verstehen, Text in natürlich klingende Sprache umzuwandeln und intuitive Text- und Sprachoberflächen für Konversationen zu erstellen.

F: Muss ich ein Experte für Deep Learning sein, um Amazon Rekognition verwenden zu können?

Nein. Mit Amazon Rekognition müssen Sie keine Deep Learning-Pipelines erstellen, verwalten oder aktualisieren.

Um präzise Ergebnisse bei der Durchführung komplexer maschineller Sehfunktionen zu erzielen, wie zum Beispiel die Erkennung von Objekten und Szenen, Gesichtsanalyse oder Gesichtserkennung, müssen Deep Learning-Systeme optimal abgestimmt und mithilfe eines riesigen Fundaments an Daten aufgebaut werden, die überprüft und mit einem Label versehen wurden. Die Ermittlung, Bereinigung und korrekte Benennung von Daten ist eine zeitraubende und kostspielige Aufgabe. Die Pflege und der Aufbau eines tiefen neuronalen Netzes ist außerdem berechnungsintensiv und erfordert oft maßgeschneiderte Hardware einschließlich Grafikprozessoren.

Amazon Rekognition ist vollständig verwaltet und kann schon im Auslieferungszustand Aufgaben der Bild- und Videoerkennung durchführen, sodass Sie weder Zeit noch Ressourcen für die Erstellung einer Deep Learning-Pipeline aufwenden müssen. Amazon Rekognition wird auf Basis der neuesten Forschungsergebnisse stets weiterentwickelt und durch aktuelle Lerndaten kontinuierlich erweitert und verbessert. So können Sie sich ganz auf das Design und die Entwicklung hochwertiger Anwendungen konzentrieren.

F: Was sind die gängigsten Anwendungsfälle für Amazon Rekognition?

Die gängigsten Anwendungsfälle für Rekognition Image umfassen:

  • Durchsuchbare Bildbibliothek
  • Gesichtsbasierte Benutzerverifizierung
  • Stimmungsanalyse
  • Gesichtserkennung
  • Image Moderation

Die gängigsten Anwendungsfälle für Rekognition Video umfassen:

  • Suchindex für Videoarchive
  • Einfaches Filtern von Videos auf anzügliche oder sexuell eindeutige Inhalte

F: Was sind die ersten Schritte mit Amazon Rekognition?

Wenn Sie sich noch nicht bei Amazon Rekognition angemeldet haben, klicken Sie auf der Seite für Amazon Rekognition auf "Testen Sie Amazon Rekognition", und melden Sie sich an. Hierfür ist ein Amazon Web Services-Konto erforderlich. Wenn Sie noch kein Konto haben, werden Sie bei der Anmeldung aufgefordert, ein Konto zu erstellen. Sobald Sie sich angemeldet haben, können Sie Amazon Rekognition mit Ihren eigenen Bildern und Videos ausprobieren. Verwenden Sie hierfür die Verwaltungskonsole von Amazon Rekognition, oder laden Sie die Amazon Rekognition-SDKs herunter, um mit der Erstellung Ihrer eigenen Anwendungen zu beginnen. Schritt-für-Schritt-Anweisungen finden Sie im Handbuch Erste Schritte.

F: Welche Bild- und Videoformate werden von Amazon Rekognition unterstützt?

Amazon Rekognition Image unterstützt derzeit die Bildformate JPEG und PNG. Sie können Bilder entweder als S3-Objekt oder als Byte-Array übermitteln. Amazon Rekognition Video-Vorgänge können Videos analysieren, die in Amazon S3-Buckets gespeichert werden. Das Video muss mit dem H.264-Codec kodiert sein. Die Dateiformate MPEG-4 und MOV werden unterstützt. Bei einem Codec handelt es sich um Software oder Hardware, die Daten zur schnelleren Übertragung komprimiert und empfangene Daten in seine ursprüngliche Form dekomprimiert. Der Codec H.264 wird oft für das Aufzeichnen, Komprimieren und Verbreiten von Videoinhalten verwendet. Videodateiformate enthalten möglicherweise mehrere Codecs. Falls Videodateien in den Dateiformaten MOV und MPEG-4 nicht in Rekognition Video verarbeitet werden können, prüfen Sie, ob das Video mit H.264 kodiert wurde.

F: Welche Dateigrößen werden von Amazon Rekognition unterstützt?

Amazon Rekognition Image unterstützt eine Bildgröße von bis zu 15 MB bei der Übermittlung als S3-Objekt und eine Bildgröße von bis zu 5 MB bei der Übermittlung als Byte-Array. Amazon Rekognition Video unterstützt Dateien mit bis zu 10 GB und 6 Stunden Laufzeit, falls sie als S3-Dateien verarbeitet werden.

F: Wie wirkt sich die Bildauflösung auf die Qualität der Rekognition Image-API-Ergebnisse aus?

Amazon Rekognition funktioniert für ein breites Auflösungsspektrum. Um optimale Ergebnisse zu erzielen, empfehlen wir die Verwendung von VGA (640 x 480) oder höher. Bei einer Auflösung unter QVGA (320 x 240) ist das Risiko höher, dass Gesichter, Objekte oder unangemessene Inhalte nicht erkannt werden, obwohl Amazon Rekognition Bilder mit mindestens 80 Pixeln pro Seite unterstützt.

F: Wie groß muss ein Objekt mindestens sein, um von Amazon Rekognition Image erkannt und analysiert werden zu können?

Als Faustregel gilt, dass das kleinste Objekt oder Gesicht mindestens 5 % der kürzeren Bildseite ausmachen muss (in Pixeln). Beispiel: In einem 1 600 x 900 großen Bild müsste das kleinste Gesicht oder Objekt mindestens 45 Pixel auf jeder Seite umfassen.

F: Wie kann ich Amazon Rekognition-Prognosen von Menschen überprüfen lassen?

Amazon Rekognition ist direkt in Amazon Augmented AI (Amazon A2I) integriert, sodass Sie Vorhersagen mit geringer Zuverlässigkeit vom Amazon Rekognition Image an menschliche Prüfer weiterleiten können. Mithilfe der Amazon Rekognition-API für die Inhaltsmoderation oder der Amazon A2I-Konsole können Sie die Bedingungen festlegen, unter denen Amazon A2I Prognosen an die Prüfer weiterleitet. Dabei kann es sich entweder um einen Zuverlässigkeitswert oder einen Zufallsstichprobenanteil handeln. Wenn Sie einen Zuverlässigkeitswert festlegen, leitet Amazon A2I nur Prognosen an die Prüfer weiter, die unter diesem Wert liegen. Diese Schwellenwerte lassen sich jederzeit anpassen, sodass Sie den richtigen Kompromiss aus Genauigkeit und Kosten finden können. Alternativ können Sie einen Prozentsatz für Stichproben festlegen. Dann leitet Amazon A2I zufällige Stichproben an die Prüfer weiter. So lässt sich die Genauigkeit eines Modells regelmäßig überprüfen. Amazon A2I bietet Prüfern zudem eine Weboberfläche mit allen nötigen Anweisungen und Tools für ihre Prüfaufgaben. Weitere Informationen zur Überprüfung durch Menschen mit Amazon Rekognition finden Sie auf der Amazon A2I-Website.

F: Wie wirkt sich die Videoauflösung auf die Qualität der Rekognition Video-API-Ergebnisse aus?

Das System ist darauf trainiert, Gesichter zu erkennen, die größer als 32 Pixel (auf der kürzeren Bildseite) sind. Für die Erkennung ist also eine Mindestgesichtsgröße zwischen 1/7 der kürzeren Bildseite bei QVGA-Auflösung und 1/30 bei HD-1080p-Auflösung erforderlich. So müssen Benutzer beispielsweise bei VGA-Auflösung eine verringerte Leistung erwarten, wenn Gesichter erkannt werden sollen, die kleiner als 1/10 der kürzeren Bildseite sind.

F: Wodurch wird die Qualität der Rekognition Video-APIs außerdem eingeschränkt?

Neben der Auflösung beeinträchtigen Unschärfen, sich schnell fortbewegende Personen, Lichtverhältnisse und die Haltung der Zielperson die Qualität der APIs.

F: Welche Benutzervideoinhalte sind besonders geeignet für die Rekognition Video-APIs?

Diese API funktioniert am besten mit Videos, die mit Amateur- oder Profiausrüstung mit einem frontalen Sichtfeld in normalen Farb- und Lichtverhältnissen aufgenommen wurden. Diese API wurde nicht für Schwarzweißvideos, Infrarot oder extreme Lichtverhältnisse getestet. Für Anwendungen, bei denen falsche Alarme besonders heikel sind, sollten Ausgaben verworfen werden, wenn sie einen bestimmten festgelegten (anwendungsspezifischen) Zuverlässigkeitswert nicht erreichen.

F: In welchen AWS-Regionen ist Amazon Rekognition verfügbar? 

Eine Liste aller Regionen, in denen Amazon Rekognition verfügbar ist, entnehmen Sie der Tabellenübersicht zu den AWS-Regionen.

Label-Erkennung

F: Was ist ein Label?

Ein Label beschreibt ein Objekt, eine Szene oder ein Konzept in einem Bild. Ein Foto von einem tropischen Strand kann zum Beispiel Labels wie „Person“, „Water“, „Sand“, „Palm Tree“, „Swimwear“ (Objekt), „Beach“ (Szene) und „Outdoors“ (Konzept) enthalten. 

F: Was bedeutet „Zuverlässigkeitswert“ und wie ist dieser Wert zu verstehen?

Der Zuverlässigkeitswert ist eine Zahl zwischen 0 und 100, die auf die Wahrscheinlichkeit hinweist, dass eine bestimmte Vorhersage zutrifft. Wenn im Beispiel mit dem tropischen Strand der Prozess zur Objekt- und Szenenerkennung einen Zuverlässigkeitswert von 99 für das Label "Wasser" und 35 für das Label "Palme" ergibt, ist die Wahrscheinlichkeit, dass das Bild Wasser enthält, höher als die Wahrscheinlichkeit, dass eine Palme vorhanden ist.

Anwendungen, die sehr anfällig für Erkennungsfehler sind (falsch positives Ergebnis) sollten Ergebnisse verwerfen, die einem Zuverlässigkeitswert unter einem bestimmten Schwellenwert zugeordnet sind. Der optimale Schwellenwert ist abhängig von der Anwendung. In vielen Fällen wird eine optimale Benutzererfahrung gewährleistet, wenn der minimale Zuverlässigkeitswert höher als der Standardwert eingestellt wird.

F: Was ist die Erkennung von Objekten und Szenen?

Bei der Erkennung von Objekten und Szenen wird ein Bild bzw. Video analysiert, um diesem Bild basierend auf seinen visuellen Inhalten Labels zuzuweisen. Für diesen Prozess verwendet Amazon Rekognition Image die DetectLabels-API. Die API ermöglicht die automatische Erkennung Tausender Objekte, Szenen und Konzepte, und sie gibt einen Zuverlässigkeitswert für jedes Label zurück. DetectLabels verwendet einen standardmäßigen Schwellenwert von 50. Die Erkennung von Objekten und Szenen ist ideal für Kunden, die große Bildbibliotheken durchsuchen und organisieren möchten, darunter Kunden- und Lifestyle-Anwendungen auf Basis von Inhalten, die von Benutzern generiert werden, sowie Technologieunternehmen, die ihre Targeting-Algorithmen verbessern möchten.

F: Kann Amazon Rekognition Objektpositionen erkennen und Begrenzungsrahmen zurückgeben?

Ja, Amazon Rekognition kann den Standort vieler gängiger Objekte wie "Person", "Car", "Gun" oder "Dog" in Bildern und Videos erkennen. Sie erhalten die Koordinaten des umschließenden Rechtecks für jede Instanz des gefundenen Objekts sowie einen Vertrauenswert. Weitere Informationen zur API-Antwortstruktur für Objektbegrenzungsrahmen finden Sie in der Dokumentation.

F: Liefert Amazon Rekognition Informationen über die Beziehung zwischen erkannten Labels?

Ja, für jedes gefundene Label gibt Amazon Rekognition das übergeordnete Label, den Alias und die Kategorie zurück, sofern sie existieren. Die übergeordneten Labels werden im Feld „übergeordnete Labels“ in hierarchischer Reihenfolge angezeigt. Das Label der ersten Überordnung ist die unmittelbare Überordnung, während die folgenden Labels Überordnungen von Überordnungen sind. Wenn beispielsweise ein „Auto“ identifiziert wird, gibt Amazon Rekognition zwei übergeordnete Labels zurück: „Fahrzeug“ (übergeordnet) und „Transport“ (Überordnung von Überordnung). Aliase sind Labels mit der gleichen Bedeutung wie die primären Bezeichnungen und werden im Feld „Aliase“ zurückgegeben. Da zum Beispiel „Handy“ ein Alias von „Mobiltelefon“ ist, gibt Amazon Rekognition „Handy“ im Feld „Alias“ eines Labels „Mobiltelefon“ zurück. Kategorien gruppieren Labels nach gemeinsamen Themen und werden im Feld „Kategorien“ angezeigt. Da zum Beispiel „Hund“ ein Label aus der Kategorie „Tiere und Haustiere“ ist, gibt Amazon Rekognition „Tiere und Haustiere“ im Feld „Kategorien“ eines Labels „Hund“ zurück. Weitere Einzelheiten zur vollständigen Liste der unterstützten Labels und ihrer Taxonomie finden Sie in der Dokumentation zu Amazon Rekognition Label Detection.

F: Welche Arten von Labels unterstützt Amazon Rekognition?

Rekognition unterstützt Tausende von Labels zu gängigen Kategorien wie beispielsweise:

  • Personen und Veranstaltungen: "Wedding", "Bride", "Baby", "Birthday Cake", "Guitarist" usw.
  • Essen und Trinken: "Apple", "Sandwich", "Wine", "Cake", "Pizza" usw.
  • Natur und Outdoor: "Beach", "Mountains", "Lake", "Sunset", "Rainbow" usw.
  • Tiere und Haustiere: "Dog", "Cat", "Horse", "Tiger", "Turtle" usw.
  • Haus und Garten: "Bed", "Table", "Backyard", "Chandelier", "Bedroom" usw.
  • Sport und Freizeit: "Golf", "Basketball", "Hockey", "Tennis", "Hiking" usw.
  • Pflanzen und Blumen: "Rose", "Tulip", "Palm Tree", "Forest", "Bamboo" usw.
  • Kunst und Unterhaltung: "Sculpture", "Painting", "Guitar", "Ballet", "Mosaic" usw.
  • Transport und Fahrzeuge: "Airplane", "Car", "Bicycle", "Motorcycle", "Truck" usw.
  • Elektronik: „Computer“, „Mobiltelefon“, „Videokamera“, „TV“, „Kopfhörer“ usw.
  • Orientierungspunkte: „Brooklyn Bridge“, „Colosseum“, „Eiffelturm“, „Machu Picchu“, „Taj Mahal“ etc.

F: Inwiefern underscheidet sich die Erkennung von Objekten und Szenen bei der Videoanalyse?

Rekognition Video ermöglicht Ihnen, automatisch Tausende von Objekten (z. B. Fahrzeuge oder Haustiere) und Aktivitäten (z. B. Feiern oder Tanzen) zu erkennen, und zeigt für alle Label Zeitstempel und Zuverlässigkeitswerte an. Außerdem nutzt es Bewegungs- und Zeitkontext im Video, um komplexe Aktivitäten wie das Ausblasen von Kerzen oder das Löschen eines Feuers genau zu identifizieren.

F: Ich kann das gewünschte Label nicht finden. Wie kann ich ein neues Label anfordern?

Bitte senden Sie uns Ihre Labelanfragen über die Amazon Rekognition Console, indem Sie den Namen des Labels in das Eingabefeld des Abschnitts „Alle Labels suchen“ eingeben und auf „Rekognition zur Erkennung anfordern“ klicken, um das gewünschte Label zu erkennen. Der Label-Katalog von Amazon Rekognition wird basierend auf Kunden-Feedback kontinuierlich erweitert.

F: Was sind Bildeigenschaften?

Image Properties ist eine Funktion von Amazon Rekognition Image zur Erkennung dominanter Farben und der Bildqualität. Bildeigenschaften erkennt die dominanten Farben des gesamten Bildes, des Bildvordergrunds, des Bildhintergrunds und von Objekten mit lokalisierten Begrenzungsrahmen. Die Bildeigenschaften messen auch die Bildqualität anhand der Werte für Helligkeit, Schärfe und Kontrast. Bildeigenschaften können über die DetectLabels API mit IMAGE_PROPERTIES als Eingabeparameter aufgerufen werden, mit oder ohne den Eingabeparameter GENERAL_LABEL für die Labelerkennung. Besuchen Sie die Amazon-Rekognition-Label-Detection-Dokumentation für weitere Informationen.

F: Wie werden dominante Farben bestimmt?

Bildeigenschaften geben dominante Farben in vier Formaten zurück: RGB, Hexcode, CSS-Farbe und vereinfachte Farben. Amazon Rekognition identifiziert zunächst die dominanten Farben nach Pixelanteil und ordnet diese Farben dann der 140 CSS-Farbpalette, RGB, Hex-Code und 12 vereinfachten Farben (d. h. „grün“, „rosa“, „schwarz“, „rot“, „gelb“, „cyan“, „braun“, „orange“, „weiß“, „lila“, „blau“, „grau“) zu. Bildeigenschaften geben standardmäßig zehn (10) dominante Farben zurück, es sei denn, der Kunde gibt die Anzahl der zurückzugebenden Farben an. Die maximale Anzahl der dominanten Farben, die die API zurückgeben kann, beträgt 12.

F: Wie interpretiere ich die Werte für Helligkeit, Schärfe und Kontrast?

Bildeigenschaften liefern einen Wert zwischen 0 und 100 für jeden Helligkeits-, Schärfe- und Kontrastwert. So wird beispielsweise ein unterbelichtetes Bild einen niedrigen Helligkeitswert liefern, während ein hell beleuchtetes Bild einen hohen Helligkeitswert liefert.

F: Wie können Sie überprüfen, ob Amazon Rekognition seine Modelle aktualisiert hat?

Amazon Rekognition gibt einen LabelModelVersion-Parameter zurück, der Sie darüber informiert, ob das Modell aktualisiert wurde. Objekt- und Szenenerkennungsmodelle werden häufig auf der Grundlage von Kundenfeedback aktualisiert.

Benutzerdefinierte Labels von Amazon Rekognition

F: Kann ich Custom Labels zur Analyse von Gesichtern oder benutzerdefinierter Texterkennung verwenden?

Nein. Custom Labels ist darauf ausgelegt, Objekte und Szenen in Bildern zu erfassen. Custom Labels ist nicht zur Analyse von Gesichtern oder benutzerdefinierter Texterkennung geeignet. Für diese Aufgaben sollten Sie andere Erkennungs-APIs verwenden. In der Dokumentation finden Sie weitere Informationen zur Gesichtsanalyse und Texterkennung.

F: Kann ich benutzerdefinierte Labels für die Suche nach unsicheren Bildinhalten verwenden?

Ja. Custom Labels ist darauf ausgelegt, Objekte und Szenen in Bildern zu erfassen. Benutzerdefinierte Labels können unsicheren Bildinhalt erkennen, der für Ihren Anwendungsfall spezifisch ist, wenn sie darauf trainiert sind. Informationen finden Sie in der Dokumention für die Moderation-API, um generischen unsicheren Bildinhalt zu erkennen.

F: Wie viele Bilder sind erforderlich, um ein benutzerdefiniertes Modell zu trainieren?

Die Anzahl der Bilder, die zum Trainieren eines benutzerdefinierten Modells benötigt werden, hängt von der Vielseitigkeit der benutzerdefinierten Labels, die das Modell vorhersagen soll, und der Qualität der Trainingsdaten ab. So kann beispielsweise ein eindeutiges Logo auf einem Bild mit 1–2 Trainingsbildern erkannt werden. Bei einem subtileren Logo, das in vielen Variationen (Maßstab, Blickwinkel, Verformungen) erkannt werden muss, können zehn bis hundert Trainingsbeispiele mit hochwertigen Anmerkungen erforderlich sein. Wenn Sie bereits eine große Anzahl von beschrifteten Bildern haben, empfehlen wir Ihnen, ein Modell mit allen Bildern zu trainieren, die Sie zur Verfügung haben. Informationen zur Maximalgröße von Trainingsdatensätzen finden Sie in der Dokumentation.

Obwohl manchmal Hunderte von Bildern erforderlich sind, um ein benutzerdefiniertes Modell mit hoher Genauigkeit zu trainieren, können Sie mit Custom Labels zunächst ein Modell mit Dutzenden von Bildern pro Etikett trainieren und dann Ihre Testergebnisse überprüfen und ggf. neue Trainingsbilder hinzufügen und Ihr Modell erneut trainieren, um Ihr es iterativ zu verbessern.

F: Wie viele Inferenz-Rechenressourcen muss ich für mein benutzerdefiniertes Modell bereitstellen?

Die Anzahl der benötigten parallelen Inferenz-Rechenressourcen ist davon abhängig, wie viele Bilder Sie zu einem bestimmten Zeitpunkt verarbeiten müssen. Der Durchsatz einer einzelnen Ressource hängt von Faktoren wie der Größe der Bilder, der Komplexität dieser Bilder (wie viele erkannte Objekte sichtbar sind) und der Komplexität Ihres benutzerdefinierten Modells ab. Wir empfehlen Ihnen, die Häufigkeit, mit der Sie Ihr benutzerdefiniertes Modell bereitstellen müssen, und die Anzahl der Bilder, die gleichzeitig verarbeitet werden müssen, zu überwachen, um die Bereitstellung Ihres benutzerdefinierten Modells möglichst effizient zu planen.
Wenn Sie erwarten, Bilder regelmäßig zu verarbeiten (z.B. einmal täglich oder wöchentlich oder zu geplanten Zeiten während des Tages), sollten Sie mit der Bereitstellung Ihres benutzerdefinierten Modells zu einem geplanten Zeitpunkt beginnen, alle Ihre Bilder verarbeiten und dann die Bereitstellung stoppen. Wenn Sie die Bereitstellung nicht einstellen, werden Ihnen Gebühren berechnet, auch wenn keine Bilder verarbeitet werden.

F: Meine Schulung ist fehlgeschlagen. Fallen trotzdem Kosten an?

Nein. Für die Rechenressourcen fallen keine Kosten an, wenn Ihr Training nicht erfolgreich ist.

Inhaltsmoderation

F: Was ist Inhaltsmoderation?

Die Inhaltsmoderation API von Amazon Rekognition verwendet Deep Learning, um explizite oder suggestive Inhalte für Erwachsene, gewalttätige Inhalte, Waffen, visuell störende Inhalte, Drogen, Alkohol, Tabak, Hasssymbole, Glücksspiele und unhöfliche Gesten in Bildern und Videos zu erkennen. Amazon Rekognition kennzeichnet ein Bild oder Video nicht nur aufgrund unangemessener oder anstößiger Inhalte, sondern gibt auch eine hierarchische Liste von Bewertungen mit Konfidenzwerten zurück. Diese Bewertungen geben bestimmte Unterkategorien des erkannten Inhaltstyps an und bieten Entwicklern so eine genauere Kontrolle über das Filtern und Verwalten großer Mengen von benutzergenerierten Inhalten (User Generated Content, UGC). Diese API kann in Moderations-Workflows für Anwendungen wie Social Network- oder Dating-Websites, Fotofreigabeplattformen, Blogs und Foren, Apps für Kinder, E-Commerce-Websites, Unterhaltungs- und Onlinewerbeservices verwendet werden.

F: Welche Arten von unangemessenen, anstößigen und unerwünschten Inhalten erkennt Amazon Rekognition?

Eine vollständige Liste der von Amazon Rekognition erkannten Inhaltskategorien finden Sie hier.

Die Image Moderation-API von Amazon Rekognition gibt eine Hierarchie mit Kategorien sowie eine Bewertung für jede entdeckte Kategorie zurück. Rekognition kann bei einem unangemessenen Bild beispielsweise „Explicit Nudity“ (detaillierte Nacktheit) mit einer sehr hohen Bewertung zurückgeben. Entwickler können diese Metadaten verwenden, um Inhalte auf hoher Ebene zu kennzeichnen, beispielsweise wenn alle Arten von expliziten Inhalten für Erwachsene gekennzeichnet werden sollen. In der gleichen Antwort gibt Rekognition außerdem eine zweite Genauigkeitsstufe zurück, indem zusätzlicher Kontext wie „Graphic Male Nudity“ (grafische Nacktheit (männlich)) mit einer eigenen Bewertung bereitgestellt wird. Entwickler können diese Informationen verwenden, um eine komplexere Filterlogik für unterschiedliche Regionen und Demografien zu erstellen.

Bitte beachten Sie, dass die Inhaltsmoderations-API keine Autorität für oder in keiner Weise als erschöpfender Filter für unangemessenen und anstößigen Inhalt darstellt. Außerdem erkennt diese API nicht, ob ein Bild illegale Inhalte (z. B. Kinderpornografie) oder unnatürliche Erwachseneninhalte enthält.

Wenn Sie andere Arten unangemessener Inhalte in Bildern erkennen müssen, wenden Sie sich bitte über den weiter unten in diesem Abschnitt erläuterten Feedback-Prozess an uns.

F: Wo sehe ich, welche Version des Modells ich derzeit verwende?

Amazon Rekognition verbessert seine Modelle regelmäßig. Um die Modellversion nachzuverfolgen, können Sie das Feld „ModerationModelVersion“ in der API-Antwort verwenden.

F: Wie kann ich sicherstellen, dass Amazon Rekognition die Genauigkeitsziele für meinen Anwendungsfall für Bild- oder Videomoderation erfüllt?

Die Inhaltsmoderations-Modelle von Amazon Rekognition wurden ausgiebig optimiert und getestet. Wir empfehlen jedoch, die Genauigkeit an Ihren eigenen Datensätzen zu messen, um die Leistung zu messen.

Sie können den "MinConfidence"-Parameter in Ihren API-Anforderungen verwenden, um ein Gleichgewicht zwischen der Inhaltserkennung und der Genauigkeit der Erkennung herzustellen. Wenn Sie „MinConfidence“ reduzieren, werden Sie wahrscheinlich den größten Teil des unangemessenen Inhalts erkennen, aber auch Inhalte aufnehmen, die nicht wirklich unangemessen sind. Wenn Sie „MinConfidence“ erhöhen, stellen Sie wahrscheinlich sicher, dass alle erkannten Inhalte wirklich unangemessen sind, einige Inhalte jedoch möglicherweise nicht mit Markierungen versehen sind.

F: Wie kann ich Rekognition Feedback geben, um die APIs für die Inhaltsmoderation zu verbessern?

Bitte senden Sie Ihre Anfragen über den AWS-Kundensupport. Amazon Rekognition erweitert basierend auf dem Kundenfeedback fortlaufend die Arten unangemessener Inhalte, die erkannt werden. Bitte beachten Sie, dass illegale Inhalte (z. B. Kinderpornografie) durch diesen Prozess nicht verarbeitet werden.

Gesichtsanalyse

F: Was ist die Gesichtsanalyse?

Mit der Gesichtsanalyse lassen sich Gesichter innerhalb von Bildern erkennen und davon ausgehend relevante Gesichtsattribute erfassen. Amazon Rekognition Image gibt für jedes Gesicht, das in einem Bild erkannt wird, den Begrenzungsrahmen sowie Attribute wie Geschlecht, Vorhandensein einer Sonnenbrille und Gesichtserkennungspunkte zurück. Rekognition Video gibt die Gesichter, die in einem Video erkannt wurden, mit Zeitstempeln, der Position und einem Begrenzungsrahmen mit Gesichtserkennungspunkten zurück.

F: Welche Gesichtsattribute kann ich mit Amazon Rekognition erfassen?

Amazon Rekognition gibt für jedes erkannte Gesicht die folgenden Gesichtsattribute sowie einen Begrenzungsrahmen und den Zuverlässigkeitswert für jedes Attribut zurück:

  • Geschlecht
  • Lächeln
  • Stimmung
  • Brille
  • Sonnenbrille
  • Augen geöffnet
  • Mund geöffnet
  • Schnauzbart
  • Bart
  • Position
  • Qualität
  • Gesichtsmerkmale

F: Was ist die Gesichtsposition?

Die Gesichtsposition bezeichnet die Rotation eines erkannten Gesichtes auf der Nick-, Roll- und Gierachse. Jeder dieser Parameter wird als ein Winkel zwischen -180 und +180 Grad zurückgegeben. Anhand der Gesichtsposition kann die Ausrichtung des Polygons um das Gesicht herum ermittelt werden (im Gegensatz zum rechteckigen Begrenzungsrahmen), um Abweichungen zu messen, Gesichter präzise nachzuverfolgen usw.

F: Was ist die Gesichtsqualität?

Die Gesichtsqualität beschreibt die Qualität des erkannten Bildes mithilfe der beiden Parameter Schärfe und Helligkeit. Beide Parameter werden als Werte zwischen 0 und 1 zurückgegeben. Sie können einen Schwellenwert auf diese Parameter anwenden, um optimal beleuchtete und scharf dargestellte Gesichter herauszufiltern. Dies ist für Anwendungen nützlich, in denen die Qualität der Gesichtsaufnahmen wichtig ist, zum Beispiel für Gesichtsvergleich und Gesichtserkennung.

F: Was sind Gesichtsmerkmale?

Gesichtsmerkmale sind eine Reihe von hervorstehenden Punkten, die sich normalerweise am Rand, an der Spitze oder in der Mitte von wichtigen Gesichtsteilen wie Augen, Nase und Mund befinden. Die DetectFaces-API von Amazon Rekognition gibt eine Gruppe von Gesichtsmerkmalen zurück, die Ihnen dabei helfen, Gesichter freizustellen, ein Gesicht mit einem anderen Gesicht zu kombinieren, durch Überlagern benutzerdefinierter Masken individuelle Filter zu erstellen usw.

F: Wie viele Gesichter können in einem Bild erkannt werden?

Mit Amazon Rekognition lassen sich bis zu 100 Gesichter in einem Bild erkennen.

F: Inwiefern unterscheidet sich die Gesichtsanalyse für die Videoanalyse?

Mit Rekognition Video können Sie Gesichter innerhalb von Videos erkennen und Gesichtsmerkmale analysieren; so kann analysiert werden, ob das Gesicht lächelt, ob die Augen geöffnet sind oder ob Emotionen erkennbar sind. Rekognition Video gibt die erkannten Gesichter mit Zeitstempeln, der Position und einem Begrenzungsrahmen mit Gesichtserkennungspunkten (z. B. linkes Auge, rechtes Auge, Nase, linker Mundwinkel, rechter Mundwinkel) zurück. Diese Positions- und Zeitinformationen lassen sich dazu einsetzen, die Stimmung des Benutzers im Lauf der Zeit zu erfassen und weitere Funktionen wie das automatische Umrahmen, Hervorheben oder Zentrieren von Gesichtern bereitzustellen. Die Benutzersuche wird für die Videoanalyse nicht unterstützt.

F: Was kann sich außer der Videoauflösung noch auf die Qualität der Rekognition-Video-APIs auswirken?

Neben der Videoauflösung spielen die Qualität und der repräsentative Teil der zu durchsuchenden Gesichtssammlungen eine große Rolle. Die Nutzung verschiedener Gesichtsbeispiele pro Person mit verschiedenen Variationen z. B. Bart, Brille, Pose (Profil und Frontal) verbessert die Leistung enorm. In der Regel werden sich sehr schnell bewegende Personen sehr schlecht erkannt. Außerdem ist die Qualität bei verschwommenen Bildern geringer.

Gesichtsvergleich

F: Was ist der Gesichtsvergleich?

Beim Gesichtsvergleich wird ein Gesicht mit einem oder mehreren Gesichtern verglichen, um die Ähnlichkeit zu messen. Mit der CompareFaces-API von Amazon Rekognition Image können Sie die Wahrscheinlichkeit messen, mit der Gesichter in zwei Bildern von derselben Person stammen. Die API vergleicht ein Gesicht im Quellbild mit jedem Gesicht, das im Zielbild erkannt wurde, und gibt für jeden Vergleich einen Ähnlichkeitswert zurück. Für jedes erkannte Gesicht wird außerdem ein Begrenzungsrahmen und ein Zuverlässigkeitswert angegeben. Mit der Funktion zum Gesichtsvergleich können Sie die Identität einer Person anhand eines bereits gespeicherten persönlichen Fotos nahezu in Echtzeit überprüfen.

F: Kann ich ein Quellbild mit mehr als einem Gesicht verwenden? 

Ja. Wenn das Quellbild mehrere Gesichter enthält, erkennt CompareFaces das größte Gesicht und vergleicht es mit jedem erkannten Gesicht im Zielbild.

F: Mit wie vielen Gesichtern kann ich ein Gesicht vergleichen?

Sie können ein Gesicht im Quellbild mit bis zu 15 erkannten Gesichtern im Zielbild vergleichen.

F: Was ist die Suche nach Gesichtern?

Bei der Suche nach Gesichtern wird mithilfe eines Eingabegesichts nach ähnlichen Übereinstimmungen in einer Sammlung gespeicherter Gesichter gesucht. Mit der Suche nach Gesichtern können Sie ganz einfach Anwendungen wie die Multi-Faktor-Authentifizierung für Bankzahlungen, den automatischen Gebäudezutritt für Mitarbeiter und mehr erstellen.

F: Was ist eine Gesichtssammlung, und wie kann ich sie erstellen?

Eine Gesichtssammlung ist Ihr durchsuchbarer Index von Gesichtsvektoren, die eine mathematische Darstellung von Gesichtern darstellen. Rekognition speichert keine Bilder von Gesichtern in Ihrer Sammlung. Mit der CreateCollection-API können Sie ganz einfach eine Sammlung in einer von AWS unterstützten Region erstellen und einen Amazon-Ressourcennamen (ARN) erhalten. Jeder Gesichtssammlung ist eine eindeutige CollectionId zugewiesen.

F: Wie füge ich Gesichter zu einer Sammlung für die Suche hinzu?

Um ein Gesicht zu einer vorhandenen Gesichtssammlung hinzuzufügen, verwenden Sie die IndexFaces-API. Diese API nimmt ein Bild in Form eines S3-Objekts oder Byte-Arrays an und fügt eine Vektordarstellung der erkannten Gesichter zur Gesichtssammlung hinzu. IndexFaces gibt außerdem eine eindeutige FaceId und einen Gesichtsbegrenzungsrahmen für jeden der hinzugefügten Gesichtsvektoren zurück.

Mithilfe der APIs CreateUser und AssociateFaces können mehrere Gesichtsvektoren derselben Person aggregiert werden, um Benutzervektoren zu erstellen und zu speichern. Benutzervektoren sind robustere Darstellungen als einzelne Gesichtsvektoren, da sie mehrere Gesichtsvektoren mit unterschiedlichem Beleuchtungsgrad, unterschiedlicher Schärfe, unterschiedlicher Pose, unterschiedlichem Erscheinungsbild usw. enthalten. Die Suche nach Gesichtern mit Benutzervektoren kann die Genauigkeit im Vergleich zur Suche nach Gesichtern mit einzelnen Vektoren erheblich verbessern. Benutzervektoren werden in derselben Sammlung gespeichert wie die zugehörigen Gesichtsvektoren.

F: Wie lösche ich Gesichter aus einer Sammlung?

Um ein Gesicht aus einer vorhandenen Gesichtssammlung zu löschen, verwenden Sie die DeleteFaces-API. Diese API greift auf die bereitgestellte Gesichtssammlung zu (mithilfe einer CollectionId), und entfernt die Einträge, die der Liste der FaceIds entsprechen. Wenn die FaceID mit einem Benutzervektor verknüpft ist, müssen Sie sie zunächst mit dem DisassoicateFaces-API-Aufruf aus dem Benutzervektor entfernen. Alternativ können Sie den Benutzervektor mithilfe der DeleteUser-API aus der Sammlung löschen.

Weitere Informationen zum Hinzufügen und Löschen von Gesichtern finden Sie im Beispiel zur Verwaltung von Sammlungen.

F: Wie suche ich nach einem Benutzer innerhalb einer Gesichtssammlung?

Sobald Sie Benutzer und zugehörige FaceIDs erstellt haben, können Sie entweder nach einem Bild (SearchUsersByImage), einer UserId (SearchUsers) oder einer FaceID (SearchUsers) suchen. Diese APIs nehmen ein eingegebenes Gesicht auf und geben eine Reihe von übereinstimmenden Benutzern zurück, geordnet nach Ähnlichkeitsgradt, wobei die höchste Ähnlichkeit an erster Stelle steht. Weitere Einzelheiten finden Sie im Beispiel zum Suchen nach Benutzern.

F: Wie kann ich innerhalb einer Gesichtssammlung nach einem Gesicht suchen?

Sobald Sie eine indizierte Gesichtssammlung erstellt haben, können Sie sie entweder anhand eines Bildes (SearchFaceByImage) oder einer FaceId (SearchFaces) nach einem Gesicht durchsuchen. Diese APIs überprüfen ein eingegebenes Bild und geben eine Gruppe an übereinstimmenden Gesichtern zurück, die nach Ähnlichkeitsgrad geordnet sind, das heißt, das Bild mit der größten Ähnlichkeit wird als Erstes angezeigt. Weitere Informationen finden Sie im Beispiel zum Suchen nach Gesichtern.

F: Wie unterscheidet sich die Suche nach Gesichtern bei der Videoanalyse?

Rekognition Video ermöglicht das Suchen nach Gesichtern in Echtzeit anhand von Sammlungen, die Millionen Gesichter enthalten. Hierzu wird zunächst eine Sammlung aus Gesichtern erstellt, in der Gesichter in Form von Vektorrepräsentationen von Gesichtsmerkmalen gespeichert werden. Rekognition durchsucht dann die Gesichtssammlung nach optisch ähnlichen Gesichtern im gesamten Video. Rekognition gibt für jedes Gesicht im Video einen Zuverlässigkeitswert aus, sodass Sie in Ihrer Anwendung nur die wahrscheinlichen Treffer anzeigen können. Die Benutzersuche wird für die Videoanalyse nicht unterstützt.

F: Was außer der Videoauflösung beeinflusst die Qualität der Video-APIs?

Neben der Videoauflösung spielen die Qualität und der repräsentative Teil der zu durchsuchenden Gesichtssammlungen eine große Rolle. Die Nutzung verschiedener Gesichtsbeispiele pro Person mit verschiedenen Variationen z. B. Bart, Brille, Pose (Profil und Frontal) verbessert die Leistung enorm. In der Regel werden sich sehr schnell fortbewegende Personen sehr schlecht erkannt. Außerdem ist die Qualität bei verschwommenen Bildern geringer.

Erkennung von Prominenten

F: Was ist die Celebrity Recognition?

Die Celebrity Recognition-API von Amazon Rekognition ist eine benutzerfreundliche Deep-Learning-basierte API für die Erkennung von prominenten, bemerkenswerten oder auf ihrem Gebiet herausragenden Persönlichkeiten. Die RecognizeCelebrities-API ist für große Datenmengen konzipiert und erkennt Persönlichkeiten aus den verschiedensten Bereichen wie Politik, Sport, Wirtschaft, Entertainment und Medien. Damit ist diese Persönlichkeitserkennung ideal für Amazon-Kunden, die ihre digitalen Bildbibliotheken nach Personen ihres Interesses durchsuchen möchten.

F: Wer kann durch die Celebrity Recognition-API erkannt werden?

Amazon Rekognition kann nur Persönlichkeiten erkennen, auf die die Deep-Learning-Modelle trainiert wurden. Dabei ist und bezweckt die RecognizeCelebrities-API in keiner Weise, eine Autorität bzw. eine umfassende Liste aller bekannten und berühmten Personen zu sein. Diese Funktion kennt die Daten einer großen Palette an Persönlichkeiten, die nach Anforderungen und Feedback unserer Kunden zusammengestellt wurde. Amazon fügt laufend neue Namen hinzu. Der Fakt aber, dass Recognize Celebrities nicht alle Personen erkennt, die von anderen Gruppierungen oder unseren Kunden als prominent bezeichnet werden, hat keinerlei Aussagekraft hinsichtlich unserer Meinung zum Berühmtheitsstatus einzelner Personen. Falls Sie gerne weitere Persönlichkeiten in die Liste der von der Persönlichkeitserkennung erkannten Personen aufnehmen würden, senden Sie uns hierzu ihr Feedback.

F: Kann eine durch die Amazon Rekognition-API erkannte Person verlangen, aus dieser Funktion entfernt zu werden?

Ja. Eine Person, die nicht in dieser Funktion geführt sein will, kann via E-Mail eine entsprechende Anfrage an den AWS-Kundenservice senden. Wir werden die Entfernung sofort veranlassen.

F: Welche Quellen mit weiteren Informationen zu einer Persönlichkeit werden unterstützt?

Die API unterstützt eine optionale Liste mit Quellen, die weitere Informationen zu einer Persönlichkeit bereitstellen. Diese ist Bestandteil der API-Rückgabe. Derzeit stellen wir die IMDB-URL bereit, sofern verfügbar. Weitere Quellen können noch hinzukommen.

F: Inwiefern unterscheidet sich die Persönlichkeitserkennung für die Videoanalyse?

Rekognition Video ermöglicht Ihnen zu erkennen, wann und wo bekannte Persönlichkeiten in einem Video auftauchen. Die Ausgabe mit Zeitstempel zeigt den Namen und die eindeutige Kennung der Persönlichkeit, die Koordinaten des Begrenzungsrahmens, den Zuverlässigkeitswert sowie URLs zu weiteren Inhalten zur betreffenden Person an, beispielsweise den IMDB-Link der Person. Die Persönlichkeit wird auch erkannt, wenn ihr Gesicht im Video teilweise verdeckt wird. Diese Funktion ermöglicht, digitale Videobibliotheken für Anwendungsfälle hinsichtlich spezifischer Marketing- und Medienanforderungen zu indizieren und zu durchsuchen.

F: Was außer der Videoauflösung beeinflusst die Qualität der Rekognition Video-APIs?

Sich sehr schnell bewegende Persönlichkeiten und verschwommene Videoaufnahmen beeinträchtigen möglicherweise die Qualität der Rekognition Video-APIs. Des Weiteren beeinträchtigen starkes Make-up und andere Täuschungsmaßnahmen, zu denen viele Schauspieler greifen, die Qualität.

Texterkennung

F: Was ist Texterkennung?

Texterkennung ist eine Funktion von Amazon Rekognition, mit der Sie Text in Bildern oder Videos, wie Straßennamen, Bildunterschriften, Produktnamen, eingeblendete Grafiken, Videountertitel und Autokennzeichen, ermitteln und erkennen können. Texterkennung wurde speziell auf reale Bilder und Videos statt auf Abbildungen in Dokumenten ausgelegt. Die DetectText-API von Amazon Rekognition verarbeitet ein Bild und gibt die Textkennung sowie einen Begrenzungsrahmen für jede ermittelte Zeichenkette mit einem Zuverlässigkeitswert aus. In Social Media- und Image Sharing-Anwendungen können Sie beispielsweise eine visuelle Suche basierend auf einem Index an Bildern aktivieren, die dieselben Textkennungen enthalten. In Sicherheitsanwendungen können Sie Fahrzeuge anhand von Autokennzeichen auf Bildern ermitteln, die mit Verkehrskameras aufgenommen wurden. Entsprechend können Sie bei Videos mit den StartTextDetection- und GetTextDetection-APIs Text erkennen und Zuversichtlichkeitsbewertungen und Zeitstempel für jede Erkennung erhalten. In Medien- und Unterhaltungsanwendungen können Sie Text-Metadaten erstellen, um Suchen nach relevanten Inhalten, wie Nachrichten, Sportergebnissen, Werbung und Bildunterschriften, zu unterstützen. Sie können den erkannten Text auch auf Richtlinien- oder Compliance-Verstöße überprüfen, z. B. eine E-Mail-Adresse oder Telefonnummer, die von Spammern überdeckt wurde.

F: Welche Textarten unterstützt Amazon Rekognition Texterkennung?

Texterkennung wurde speziell auf reale Bilder und Videos statt auf Abbildungen in Dokumenten ausgelegt. Die Funktion unterstützt die meisten lateinischen Schriften und Ziffern, die in einer großen Vielfalt von Layouts, Schriftarten und Schriftschnitten integriert sind. Sie unterstützt zudem Hintergrundobjekte wie Banner oder Plakate, die mit Text in unterschiedlichen Ausrichtungen überlagert sind. Texterkennung erkennt bis zu 50 Zeichenfolgen pro Bild oder Video und listet diese als Wörter und Zeilen auf. Texterkennung unterstützt Text, der um bis zu -90 bis +90 Grad von der horizontalen Achse aus gedreht wurde.

F: Kann ich die Texterkennung auf bestimmte Regionen in einem Bild oder Video beschränken?

Ja, Sie können mit den Filteroptionen der Texterkennung bis zu 10 interessante Regionen in der API-Anforderung angeben. Amazon Rekognition gibt nur Text zurück, der innerhalb dieser Regionen liegt. 

F: Kann ich die Texterkennung nach Wortzuverlässigkeit oder Größe des Begrenzungsrahmens filtern?

Ja, in der API-Anforderung können Sie die Filteroptionen für die Texterkennung verwenden, um Schwellenwerte für die minimale Zuversichtlichkeitsbewertung oder die minimalen Abmessungen des Begrenzungsrahmens anzugeben.

F: Wie kann ich Feedback zu Rekognition geben, um die Texterkennung zu verbessern?

Bitte senden Sie Ihre Anfragen über den AWS-Kundensupport. Amazon Rekognition erweitert basierend auf dem Kundenfeedback fortlaufend die erkannten Typen von Textinhalten.

PSA-Erkennung

F: Welche persönliche Schutzausrüstung (PSA) kann Amazon Rekognition erkennen?

Amazon Rekognition “DetectProtectiveEquipment” kann gängige Arten von Gesichts-, Hand- und Kopfbedeckungen erkennen. Weitere Informationen finden Sie in der zugehörigen Dokumentation. Sie können die Amazon Rekognition Custom Labels auch verwenden, um PSA wie Warnwesten, Schutzbrillen und andere für Ihr Unternehmen einzigartige PSA zu erkennen. Um mehr darüber zu erfahren, wie Sie Amazon Rekognition Custom Labels für die benutzerdefinierte PSA-Erkennung verwenden können, besuchen Sie dieses github-Repo.

F: Kann Amazon Rekognition die Standorte von Schutzausrüstungen erkennen und Begrenzungsrahmen zurückgeben?

Ja, die Amazon Rekognition "DetectProtectiveEquipment"-API kann die Position von Schutzausrüstung wie Gesichts-, Hand- und Kopfbedeckungen an Personen in Bildern erkennen. Sie erhalten die Koordinaten des Begrenzungsrahmen-Rechtecks für jedes erkannte Schutzausrüstungsteil sowie einen Vertrauenswert. Weitere Einzelheiten zur API-Antwort finden Sie in der Dokumentation.

F: Kann der Service feststellen, ob die Maske richtig getragen wird?

Die API-Ausgabe von Amazon Rekognition "DetectProtectiveEquipment" liefert für jedes erkannte Schutzausrüstungsteil den Wert "CoversBodyPart" (wahr/falsch) und den Vertrauenswert für den Booleschen Wert. Dies gibt Aufschluss darüber, ob sich die Schutzausrüstung an dem entsprechenden Körperteil der Person befindet. Die Vorhersage über das Vorhandensein der Schutzausrüstung auf dem entsprechenden Körperteil hilft, Fälle herauszufiltern, in denen die PSA auf dem Bild, aber nicht tatsächlich auf der Person ist. Sie zeigt oder impliziert jedoch nicht, dass die Person durch die Schutzausrüstung angemessen geschützt ist oder dass die Schutzausrüstung selbst ordnungsgemäß getragen wird.

F: Kann die PSA-Erkennung von Amazon Rekognition erkannte Personen identifizieren?

Nein, die PSA-Erkennung von Amazon Rekognition führt keine Gesichtserkennung oder Gesichtsvergleiche durch und kann die erkannten Personen nicht identifizieren.

F: Wo kann ich weitere Informationen über API-Limits und Latenzzeiten finden?

Bitte lesen Sie die Dokumentation zur PSA-Erkennung von Amazon Rekognition, um die neuesten Details zu API-Limits und Latenzzeiten zu erhalten.  

F: Wie sende ich Bilder von meinen Arbeitsplatz-Kameras an Amazon Rekognition?

Sie haben mehrere Optionen, um Bilder von Ihren Arbeitsplatz-Kameras zu bemustern. Weitere Informationen finden Sie im Blog zur PSA-Erkennung von Amazon Rekognition.

F: Wie sind die Preise für die PSA-Erkennung?

Die PSA-Erkennung von Amazon Rekognition ist preislich ähnlich wie andere Amazon Rekognition Image APIs auf einer Pro-Bild-Basis. Weitere Informationen finden Sie auf der Amazon-Rekognition-Preisseite.  

Amazon Rekognition Streaming Video Events

F: Was sind Amazon Rekognition Streaming Video Events?
Amazon Rekognition Streaming Video Events nutzen Machine Learning, um Objekte von einer angeschlossenen Kamera zu erkennen und umsetzbare Warnungen in Echtzeit bereitzustellen. Amazon Rekognition Streaming Video Events arbeiten mit Ihren neuen und vorhandenen Kinesis-Videostreams zusammen, um Videostreams (bis zu 120 Sekunden pro Bewegungsereignis) zu verarbeiten und Sie zu benachrichtigen, sobald ein gewünschtes Objekt von Interesse erkannt wird. Sie können diese Benachrichtigungen verwenden, um

  • Smart Alerts an Ihre Endbenutzer zu senden, z. B. „An der Haustür wurde ein Paket entdeckt“.
  • Heim-Automatisierungsfunktionen bereitzustellen, wie „Einschalten des Garagenlichts, wenn eine Person erkannt wird“.
  • mit intelligenten Assistenten wie Echo-Geräten zu integrieren, um Alexa-Ankündigungen bereitzustellen, wenn ein Objekt erkannt wird.
  • intelligente Suchfunktionen bereitzustellen, z. B. die Suche nach allen Videoclips, in denen ein Paket erkannt wurde.

F: Wie funktionieren Amazon Rekognition Streaming Video Events?
Sie können Ihre neuen oder vorhandenen Kinesis-Videostreams verwenden, um mit Amazon Rekognition Streaming Video Events zu beginnen. Beim Konfigurieren Ihrer Stream-Prozessoreinstellungen für Amazon Rekognition können Sie die gewünschten Markierungen (Person, Haustier oder Paket), die Sie erkennen möchten, sowie die Dauer des Videos (bis zu 120 Sekunden pro Bewegungsereignis) auswählen, das Rekognition für jedes Ereignis verarbeiten soll, und/oder den Interessenbereich auf dem Rahmen, den Sie durch Rekognition verarbeiten möchten. Rekognition-Streaming-Video-Event-APIs verarbeiten Videos nur, wenn Sie eine Benachrichtigung an Rekognition senden, um mit der Verarbeitung des Videostreams zu beginnen.

Wenn auf einer angeschlossenen Kamera eine Bewegung erkannt wird, senden Sie eine Benachrichtigung an Rekognition, um mit der Verarbeitung des Videostreams zu beginnen. Rekognition verarbeitet den entsprechenden Kinesis-Videostream nach der Bewegungserkennung, um nach den von Ihnen angegebenen gewünschten Objekten zu suchen. Sobald ein gewünschtes Objekt erkannt wird, sendet Ihnen Amazon Rekognition eine Benachrichtigung. Diese Benachrichtigung enthält das erkannte Objekt, den Begrenzungsrahmen, das vergrößerte Bild des Objekts und den Zeitstempel.

F: Welche Markierungen kann Amazon Rekognition Streaming Video Events unterstützen?
Amazon Rekognition Streaming Video Events kann Personen, Haustiere und Pakete unterstützen.

F: Welche Haustiere und Pakettypen können Amazon Rekognition Streaming Video APIs erkennen?
Amazon Rekognition Streaming Video Event APIs unterstützen Hunde und Katzen bei der Erkennung von Haustieren. Die API kann mittlere und große Kartons mit hoher Genauigkeit erkennen. Die API erkennt auch kleinere Kartons, Luftpolsterumschläge und Ordner, kann aber einige dieser Objekte gelegentlich übersehen.

F: Wird mir jede erkannte Markierung separat in Rechnung gestellt? Kann ich auswählen, für welche Markierungen ich mich anmelden möchte?
Nein, jede Markierung wird Ihnen nicht separat in Rechnung gestellt. Ihnen wird die Dauer des von Rekognition verarbeiteten Streaming-Videos in Rechnung gestellt. Sie können sich entweder für bestimmte Markierungen (Haustier, Paket) oder für alle drei Markierungen (Personen, Haustier, Paket) entscheiden, während Sie Ihre Stream-Verarbeitungseinstellungen konfigurieren.

F: Muss ich Videos kontinuierlich zu Amazon Rekognition streamen?
Nein, Sie müssen Videos nicht kontinuierlich zu Amazon Rekognition streamen.

F: Sollte ich neue Kinesis-Videostreams (KVS) erstellen, um Streaming-Videoereignisse zu verwenden?
Amazon Rekognition Streaming Video Events funktioniert sowohl mit neuen als auch mit bestehenden Kinesis-Videostreams. Integrieren Sie einfach die relevanten KVS-Streams in die Amazon Rekognition Streaming Video Events API, um mit der Videoanalyse von KVS-Streams zu beginnen.

F: Wann sendet mir Amazon Rekognition eine Benachrichtigung?
Amazon Rekognition beginnt mit der Verarbeitung des Videostreams nach der Bewegungserkennung. Sie können die Dauer für die Verarbeitung dieses Videostreams konfigurieren (bis zu 120 Sekunden pro Ereignis). Sobald Amazon Rekognition das Objekt von Interesse im Videostream erkennt, sendet Rekognition Ihnen eine Benachrichtigung. Diese Benachrichtigung enthält den Typ des erkannten Objekts, den Begrenzungsrahmen, ein vergrößertes Bild des erkannten Objekts und einen Zeitstempel.

F: Welche Auflösung und fps wird für die Markierungserkennung unterstützt?
Um Kosten und Latenz niedrig zu halten, unterstützen Amazon Rekognition Streaming Video Events Videostreams mit einer Auflösung von 1080p oder niedriger. Rekognition verarbeitet den Videostream mit 5 fps.

F: Welche Codecs und Dateiformate werden für das Streamen von Videos unterstützt?
Amazon Rekognition Video unterstützt H.264-Dateien im MPEG-4- (.mp4) oder MOV-Format.

F: Was ist die maximale Dauer des pro Ereignis verarbeiteten Videos?
Sie können bis zu 120 Sekunden Video pro Ereignis verarbeiten.

F: Kann ich einen bestimmten Bereich des Frames auswählen, der für meinen Videostream verarbeitet werden soll?
Ja, als Teil der Konfiguration Ihres StreamProcessor können Sie den Interessenbereich auswählen, den Sie auf Ihrem Frame verarbeiten möchten. Amazon Rekognition verarbeitet nur diesen bestimmten Bereich des Frames.

F: Wie viele gleichzeitige Videostreams kann ich mit Amazon Rekognition verarbeiten?
Amazon Rekognition Streaming Video Events kann 600 gleichzeitige Sitzungen pro AWS-Kunde unterstützen. Bitte wenden Sie sich an Ihren Konto-Manager, wenn Sie dieses Limit erhöhen müssen.

Von Amazon Rekognition gespeicherte Videoanalyse

F: Welche Arten von Entitäten kann Amazon Rekognition Video erkennen?
Amazon Rekognition Video kann Objekte, Szenen, Wahrzeichen, Gesichter, Prominente, Text und unangemessene Inhalte in Videos erkennen. Außerdem können Sie mithilfe eigener Repositorys oder Sammlungen von Gesichtsbildern nach Gesichtern suchen, die in einem Video auftauchen.

F: Welche Dateiformate und Codecs werden von Amazon Rekognition Video unterstützt?
Amazon Rekognition Video unterstützt H.264-Dateien im MPEG-4- (.mp4) oder MOV-Format. Wenn Ihre Videodateien einen anderen Codec verwenden, können Sie sie mit AWS Elemental MediaConvert in H.264 transcodieren.

F: Wie funktionieren asynchrone Amazon Rekognition Video-APIs? 
Amazon Rekognition Video kann Videos verarbeiten, die in Amazon S3-Buckets gespeichert sind. Sie können eine asynchrone Gruppe von Vorgängen nutzen: Sie beginnen die Videoanalyse durch den Aufruf eines Start-Vorgangs wie etwa StartLabelDetection zur Erkennung von Objekten und Szenen. Der Fortschritt der Anforderung wird in einem Thema des Amazon Simple Notification Service (SNS) veröffentlicht. Zum Abrufen des Fortschritts aus dem Amazon SNS-Thema verwenden Sie eine Warteschlange von Amazon Simple Queue Service (SQS) oder eine AWS Lambda-Funktion. Sobald Sie den Fortschritt abgerufen haben, rufen Sie einen Get-Vorgang (z. B. GetLabelDetection) auf, um die Ergebnisse der Anforderung abzurufen. Eine Liste der verfügbaren Amazon-Rekognition-Video-APIs finden Sie auf dieser Seite.

F: Wie finde ich die Zeitachse für erkannte Objekte in einem Video?
Amazon Rekognition Video gibt Label-Ergebnisse nach Zeitstempel oder Video-Segment zurück. Sie konnen wählen, wie diese Ergebnisse sortiert werden, indem Sie den Eingabeparameter AggregateBy in der GetLabelDetection-API verwenden. 

  • Wenn Label-Ergebnisse nach Zeitstempel organisiert sind, wird jedes Label zurückgegeben, jedes Mal, wenn Amazon Rekognition Video das Label in der Videozeitachse erkennt. Zum Beispiel, wenn „Hund“ bei 2000 ms und 4000 ms erkannt wird, gibt Amazon Rekognition Video 2 Label-Einträge für „Hund“ zurück, einen mit 2000 ms und einen mit 4000 ms. 
  • Wenn Label-Ergebnisse nach Videosegment organisiert sind, gibt Amazon Rekognition Video das Videosegment zurück, in dem ein Label über mehrere aufeinanderfolgende Bilder hinweg erkannt wird. Ein Videosegment wird durch einen Start-Zeitstempel, einen End-Zeitstempel und einer Dauer definiert. Wenn „Hund“ beispielsweise in 2 aufeinanderfolgenden Bildern bei 2000 ms und 4000 ms erkannt wird, gibt Amazon Rekognition Video nur 1 Label-Eintrag für „Hund“ zurück, mit einem Start-Zeitstempel bei 2000 ms, einem End-Zeitstempel bei 4000 ms und einer Dauer von 2000 ms. 

Um mehr über Zeitstempel und Segmente zu erfahren und ein Beispiel einer API-Antwort zu sehen, besuchen Sie Erkennen von Labels in einem Video.

F: Wie viele gleichzeitige Aufgaben zur Videoanalyse kann ich mit Amazon Rekognition Video ausführen?
Mit Amazon Rekognition Video können sie bis zu 20 Aufgaben gleichzeitig verarbeiten. Weitere Einzelheiten zu Limits finden Sie auf der Seite zu Obergrenzen.

F: Welche Videoauflösung sollte ich verwenden?
Amazon Rekognition Video verarbeitet automatisch Videos in ganz unterschiedlicher Auflösung und Qualität. Um optimale Ergebnisse zu erzielen, empfehlen wir eine Auflösung von 720p (1280 × 720 Pixel) bis 1080p (1920 x 1080 Pixel) oder entsprechende Auflösungen in anderen Seitenverhältnissen. Sehr niedrige Auflösungen (wie etwa QVGA oder 240p) und Videos in äußerst geringer Qualität können sich negativ auf die Qualität der Ergebnisse auswirken.

F: Was ist die Wegverfolgung von Personen (People Pathing)?
Mit Rekognition Video können Sie den Weg einzelner Personen entlang der Videozeitachse nachverfolgen. Rekognition Video entdeckt Personen auch, wenn die Kamera in Bewegung ist, und gibt für jede Person einen Begrenzungsrahmen und das Gesicht sowie die Gesichtsattribute und Zeitstempel zurück. Hinsichtlich Anwendungen für den Einzelhandel ermöglicht dies das anonyme Generieren von Einblicken in das Kundenverhalten, etwa dazu, wie sich Kunden durch die Gänge eines Geschäfts bewegen oder wie lange sie an der Kasse anstehen.

Medienanalysen mit Amazon Rekognition Video

F: Welche Arten von Medienanalysesegmenten kann Amazon Rekognition Video erkennen?

Amazon Rekognition Video kann die folgenden Arten von Segmenten oder Entitäten für die Medienanalyse erkennen:

  • Schwarze Einzelbilder: Videos enthalten oft eine kurze Folge leerer schwarzer Einzelbilder ohne Ton, die als Hinweise zum Einfügen von Werbung dienen oder zur Abgrenzung des Endes eines Programmteils, wie etwa einer Szene oder des Vorspanns. Mit Amazon Rekognition Video können Sie solche Sequenzen mit schwarzen Einzelbildern erkennen, um die Schaltung von Werbung zu automatisieren, Inhalte für VOD zu verpacken und verschiedene Programmteile oder Szenen abzugrenzen. Schwarze Einzelbilder mit Ton (wie z. B. Ausblendungen oder Voiceover-Passagen) werden als Inhalt betrachtet und nicht zurückgegeben.
  • Abspann: Mit Amazon Rekognition Video können Sie automatisch genau die Einzelbilder erkennen, bei denen der Abspann von Filmen oder Fernsehsendungen beginnt und endet. Mit diesen Informationen können Sie „Binge-Markierungen“ oder interaktive Zuschauer-Aufforderungen wie „Nächste Episode“ oder „Intro überspringen“ in VOD-Anwendungen generieren. Amazon Rekognition Video ist darauf ausgelegt, eine Vielzahl von Vor- und Abspannstilen zu handhaben, die von einfachen Abspannen bis hin zu anspruchsvolleren Abspannen neben Inhalten, Abspannen zu Szenen oder stilisierten Abspannen in Anime-Inhalten reichen.
  • Einstellun: Eine Einstellung besteht aus einer Reihe von aufeinanderfolgenden, zusammenhängenden Bildern, die von einer einzigen Kamera aufgenommen werden und eine kontinuierliche Handlung in Zeit und Raum darstellen. Mit Amazon Rekognition Video können Sie den Beginn, das Ende und die Dauer jeder Einstellung erkennen und alle Einstellungen in einem Inhalt berücksichtigen. Metadaten zu Einstellungen können für verschiedene Anwendungen verwendet werden: Dazu zählen das Erstellen von Werbevideos mit ausgewählten Einstellungen, das Generieren von Vorschaubildern, die Übergänge zwischen den Einstellungen vermeiden, und das Einfügen von Werbung in Einstellungen, die das Zuschauererlebnis nicht stören, z. B. in der Mitte einer Einstellung, wenn jemand spricht.
  • Farbbalken: Mit Amazon Rekognition Video können Sie Videoabschnitte erkennen, die SMPTE- oder EBU-Farbbalken anzeigen. Dabei handelt es sich um eine Reihe von Farben, die in bestimmten Mustern angezeigt werden, damit die Farben auf Monitoren, in Programmen und in Kameras richtig eingestellt sind. Weitere Informationen zu SMPTE-Farbbalken finden Sie unter SMPTE-Farbbalken. Diese Metadaten sind nützlich, um Inhalte für VOD-Anwendungen vorzubereiten, indem Abschnitte mit Farbbalken daraus entfernt werden. Zudem lassen sich damit Probleme wie etwa der Verlust von Übertragungssignalen in einer Aufzeichnung erkennen, wenn anstelle des Inhalts Farbbalken kontinuierlich als Standardsignal angezeigt werden.
  • Tafeln: Tafeln sind Abschnitte, normalerweise am Anfang eines Videos, die Textmetadaten zu Episode, Studio, Videoformat, Audiokanälen und mehr enthalten. Amazon Rekognition kann den Anfang und das Ende solcher Tafeln identifizieren, was es Bedienern erleichtert, die Textmetadaten zu verwenden oder die Tafel einfach zu entfernen, wenn sie Inhalte für die endgültige Anzeige vorbereiten.
  • Studiologos: Studiologos sind Sequenzen, die die Logos oder Embleme des an der Produktion beteiligten Produktionsstudios zeigen. Amazon Rekognition kann solche Sequenzen identifizieren, sodass Bediener sie leicht überprüfen können, um Studios zu identifizieren.
  • Inhalt: Inhalt bezieht sich auf die Teile der Fernsehsendung oder des Films, die das Programm oder verwandte Elemente enthalten. Schwarze Rahmen, Abspanne, Farbbalken, Tafeln und Studiologos gelten nicht als Inhalt. Mit Amazon Rekognition Video können Sie den Anfang und das Ende jedes Inhaltssegments im Video erkennen, was mehrere Verwendungen ermöglicht, z. B. das Auffinden der Programmlaufzeit oder das Auffinden bestimmter Segmente, die bestimmten Zwecken dienen. Eine kurze Zusammenfassung der vorherigen Episode am Anfang des Videos ist beispielsweise eine Art von Inhalt. Ebenso können Bonus-Inhalte nach dem Abspann erscheinen, nachdem der Abspann fertig ist. Und einige Videos können am Ende des Videos „textlose“ Inhalte haben, die eine Sammlung aller Programminhalte sind, die überlagerten Text enthalten, aber diesen Text entfernt haben, um die Internationalisierung in einer anderen Sprache zu ermöglichen. Sobald alle Inhaltssegmente mit Amazon Rekognition Video erkannt wurden, können Sie spezifisches Domänenwissen wie „Meine Videos beginnen immer mit einer Zusammenfassung“ anwenden, um jedes Segment weiter zu kategorisieren oder sie zur menschlichen Überprüfung zu senden.

Amazon Rekognition Video bietet Start-, End-, Dauer- und Zeitcodes für jede erkannte Entität sowie Zeitstempel (Millisekunden), SMPTE-Formatcode und Bildnummernoptionen für jede einzelne Entität.

F: Was sind die ersten Schritte für Medienanalysen mit Amazon Rekognition Video?

Funktionen zur Medienanalyse stehen über die Abschnittserkennungs-API von Amazon Rekognition Video zur Verfügung. Hierbei handelt es sich um eine asynchrone API, die aus zwei Vorgängen besteht: StartSegmentDetection zum Starten der Analyse und GetSegmentDetection zum Abrufen der Analyseergebnisse. Weitere Informationen zu den ersten Schritten finden Sie in der Dokumentation.

Wenn Sie die Ergebnisse der Medienanalyse visualisieren oder sogar andere Amazon-AKI-Services wie Amazon Transcribe mit Ihren eigenen Videos ausprobieren möchten, nutzen Sie bitte die Anwendung Media Insights – ein serverloses Framework und eine Demo-Anwendung, um auf einfache Weise Insights zu generieren und Anwendungen für Ihr Video zu entwickeln. Audio-, Text- und Bildressourcen mithilfe von AWS Machine Learning und Media Services. Mithilfe der mitgelieferten AWS CloudFormation-Vorlage können Sie ganz einfach Ihre eigene Demoanwendung starten, um Ihre eigenen Videos auszuprobieren und Analyseergebnisse zu visualisieren.

F: Was ist ein bildgenauer Zeitcode?

Bildgenaue Zeitcodes liefern für den relevanten Abschnitt von Videos oder Entitäten die genaue Nummer des Einzelbildes. Medienunternehmen verarbeiten Zeitcodes üblicherweise im SMPTE-Format (Society of Motion Picture and Television Engineers) „Stunden:Minuten:Sekunden:Bildnummer“, zum Beispiel 00:24:53:22.

F: Ist die Abschnittserkennung von Amazon Rekognition Video genau?

Ja, die Abschnittserkennungs-API von Amazon Rekognition Video bietet bildgenaue SMPTE-Zeitcodes sowie Zeitstempel im Millisekundenbereich für den Beginn und das Ende jedes erkannten Abschnitts.

F: Welche Arten von Bildratenformaten kann die Abschnittserkennung von Amazon Rekognition Video verarbeiten?

Die Abschnittserkennung von Amazon Rekognition Video verarbeitet automatisch ganzzahlige, gebrochene und Drop-Bild-Standards für Bildraten zwischen 15 und 60 Bildern pro Sekunde (fps). Es werden zum Beispiel gängige Bildraten wie 23,976, 25, 29,97 und 30 fps unterstützt. Anhand der Bildratendaten werden in jedem Fall bildgenaue Zeitcodes bereitgestellt.

F: Welche Filteroptionen kann ich anwenden?

Sie können die Mindestkonfidenz für jeden Segmenttyp angeben, während Sie die API-Anfrage stellen. Sie können beispielsweise jedes Segment mit einem Konfidenzwert von weniger als 70 % herausfiltern. Für die Schwarzbilderkennung können Sie auch die maximale Pixelluminanz steuern, die Sie als schwarzes Pixel betrachten, beispielsweise einen Wert von 40 für einen Farbbereich von 0 bis 255. Darüber hinaus können Sie auch steuern, welcher Prozentsatz von Pixeln in einem Bild diese Kriterien für die Luminanz der schwarzen Pixel erfüllen muss, damit das Bild als schwarzes Bild klassifiziert wird, z. B. 99 %. Mit diesen Filtern können Sie unterschiedliche Videoqualitäten und -formate bei der Erkennung von schwarzen Bildern berücksichtigen. Beispielsweise können aus Bandarchiven wiedergewonnene Videos verrauscht sein und einen anderen Schwarzwert aufweisen als ein modernes digitales Video. Weitere Details finden Sie auf dieser Seite.

Fakturierung

F: Wie zählt Amazon Rekognition die Anzahl der verarbeiteten Bilder?

Bei Verwendung von APIs, die Bilder als Eingaben akzeptieren, zählt Amazon Rekognition die tatsächliche Anzahl der analysierten Bilder als die Anzahl der verarbeiteten Bilder. Zu dieser Kategorie gehören DetectLabels, DetectModerationLabels, DetectFaces, IndexFaces, RecognizeCelebrities und SearchFaceByImage und Bildeigenschaften. Bei Verwendung der CompareFaces-API, die zwei Bilder als eine Eingabe erfasst, wird nur das Quellbild als ein verarbeitetes Bild gewertet.

Bei Verwendung von API-Aufrufen, die kein Bild als Eingabeparameter erfordern, zählt Amazon Rekognition jeden API-Aufruf als ein verarbeitetes Bild. SearchFaces gehört zu dieser Kategorie.

Die verbleibenden Amazon Rekognition-APIs – ListFaces, DeleteFaces, CreateCollection, DeleteCollection und ListCollections – zählen nicht für verarbeitete Bilder.

F: Wie misst Amazon Rekognition die Dauer des verarbeiteten Videomaterials?

Hinsichtlich archivierter Videos misst Amazon Rekognition die Dauer des von der API verarbeiteten Videomaterials in Minuten und berechnet Gebühren entsprechend. Hinsichtlich Livestreamvideos werden Gebühren für jedes fünfsekündige Videosegment berechnet, das verarbeitet wird.

F: Für welche APIs werden von Amazon Rekognition Gebühren berechnet?

Amazon Rekognition Image berechnet für die folgenden APIs: DetectLabels, DetectModerationLabels, DetectText, DetectFaces, IndexFaces, RecognizeCelebrities, SearchFaceByImage, CompareFaces, SearchFaces und Bildeigenschaften. Die Gebühren Amazon Rekognition Video basieren auf der Videodauer in Minuten, die von den APIs StartLabelDetection, StartFaceDetection, StartFaceDetection, StartTextDetection, StartContentModeration, StartPersonTracking, StartCelebrityRecognition, StartFaceSearch und StartStreamProcessor erfolgreich verarbeitet wurden.

F: Wie viel kostet Amazon Rekognition?

Auf der Seite mit den Preisen von Amazon Rekognition finden Sie aktuelle Preisinformationen.

F: Fallen Gebühren für die Merkmalsvektoren an, die ich in meinen Gesichtssammlungen speichere?

Ja. Amazon Rekognition berechnet monatlich 0,01 USD pro 1 000 Gesichtsvektoren. Weitere Informationen finden Sie auf der Seite mit der Preisübersicht.

F: Ist Amazon Rekognition Teil des kostenlosen AWS-Kontingents?

Ja. Im Rahmen des kostenlosen Nutzungskontingents von AWS können Sie Amazon Rekognition zum Einstieg kostenlos verwenden. Nach der Anmeldung können Amazon Rekognition-Neukunden für die Dauer des ersten Jahres jeden Monat bis zu 5 000 Bilder analysieren lassen. Im Rahmen des kostenlosen Nutzungskontingents können Sie alle Amazon-Rekognition-APIs, außer Bildeigenschaften, verwenden und bis zu 1 000 Gesichter speichern. Des Weiteren können Amazon-Rekognition-Video-Kunden im ersten Jahr 1 000 Videominuten pro Monat gratis analysieren.

F: Sind Steuern bereits in den Preisen enthalten?

Einzelheiten zu Steuern finden Sie unter Amazon Web Services – Steuerhilfe.

AWS-Integration

F: Funktioniert Amazon Rekognition Video mit Bildern, die auf Amazon S3 gespeichert sind?

Ja. Um mit dem Analysieren von Bildern aus Amazon S3 zu beginnen, verweisen Sie die Amazon Rekognition-API auf Ihren S3-Bucket. Sie müssen die Daten nicht verschieben. Weitere Informationen zur Verwendung von S3-Objekten mit Amazon Rekognition API-Aufrufen finden Sie in der Übung zur Erkennung von Bezeichnungen.

F: Kann ich Amazon Rekognition mit Bildern verwenden, die in einem Amazon S3-Bucket in einer anderen Region gespeichert sind?

Nein. Bitte stellen Sie sicher, dass sich der Amazon S3-Bucket, den Sie verwenden möchten, in derselben Region wie Ihr Amazon Rekognition-API-Endpunkt befindet.

F: Wie kann ich mit Amazon Rekognition mehrere Bilddateien in einem Stapel verarbeiten?

Sie können Ihre Amazon S3-Bilder in einem Stapel verarbeiten, indem Sie die Schritte aus dem GitHub-Beispiel zur Stapelverarbeitung mit Amazon Rekognition nachvollziehen.

F: Wie kann ich AWS Lambda mit Amazon Rekognition verwenden?

Amazon Rekognition bietet direkten Zugriff auf AWS Lambda und die Integration von Trigger-basierten Funktionen zur Bildanalyse in Ihre AWS-Datenspeicher wie Amazon S3 und Amazon DynamoDB. Wenn Sie Amazon Rekognition mit AWS Lambda verwenden möchten, befolgen Sie diese Schritte, und wählen Sie den Amazon Rekognition-Blueprint aus.

F: Funktioniert Amazon Rekognition mit AWS CloudTrail?

Ja. Amazon Rekognition unterstützt die Protokollierung der folgenden Aktionen als Ereignisse in CloudTrail-Protokolldateien: CreateCollection, DeleteCollection, CreateStreamProcessor, DeleteStreamProcessor, DescribeStreamProcessor, ListStreamProcessors und ListCollections. Weitere Details zu den Amazon Rekognition API-Befehlen, die in AWS CloudTrail integriert sind, finden Sie unter Protokollierung von API-Aufrufen mit AWS CloudTrail.

Datenschutz

F: Werden Bild- und Videoeingaben, die von Amazon Rekognition verarbeitet werden, gespeichert? Wie werden sie von AWS genutzt?

Amazon Rekognition kann Bild- und Videoeingaben, die vom Dienst verarbeitet werden, ausschließlich speichern und verwenden, um den Dienst bereitzustellen und aufrechtzuerhalten und, sofern Sie sich nicht wie unten angegeben abmelden, die Qualität von Amazon Rekognition und anderen Amazon-Technologien des Machine Learning/der künstlichen Intelligenz zu verbessern und zu entwickeln. Die Nutzung Ihrer Inhalte ist wichtig für die kontinuierliche Verbesserung Ihrer Amazon Rekognition-Kundenerfahrung, einschließlich der Entwicklung und Schulung verwandter Technologien. Wir verwenden keine personenbezogenen Informationen, die in Ihren Inhalten enthalten sein können, um Produkte, Services oder Marketingmaterialien auf Sie oder Ihre Endbenutzer abzuzielen. Ihr Vertrauen, der Schutz Ihrer Daten und die Sicherheit Ihrer Inhalte sind unser größtes Anliegen, und wir setzen geeignete und innovative technische und physische Kontrollmethoden ein, einschließlich Verschlüsselung im Ruhezustand und während der Übertragung, um unerlaubten Zugriff oder die unerlaubte Veröffentlichung Ihrer Inhalte zu vermeiden und sicherzustellen, dass wir Ihre Daten nur in Übereinstimmung mit unseren Verpflichtungen Ihnen gegenüber verwenden. Weitere Informationen finden Sie unter https://aws.amazon.com/compliance/data-privacy-faq/. Mit einer der Opt-Out-Mechanismen von AWS Organizations können Sie die Verwendung Ihrer Bild- und Videoeingaben zur Verbesserung oder Entwicklung der Qualität von Amazon Rekognition und anderen Machine-Learning-Technologien / Technologien künstlicher Intelligenz von Amazon ablehnen. Informationen zu Ihren Opt-Out-Möglichkeiten finden Sie unter Managing AI services opt-out policy.

F: Habe ich die Möglichkeit, von Amazon Rekognition gespeicherte Bild- und Videoeingaben zu löschen?

Ja. Um Bild- und Videoeingaben löschen zu lassen, die Ihrem Konto zugeordnet sind, wenden Sie sich bitte an den AWS Support. Durch das Löschen von Bild- und Videoeingaben verringert sich möglicherweise die Qualität Ihrer Amazon Rekognition-Erfahrung.

F: Wer hat Zugriff auf Inhalte, die von Amazon Rekognition verarbeitet und gespeichert werden?

Nur berechtigte Mitarbeiter haben Zugriff auf Inhalte, die von Amazon Rekognition verarbeitet und gespeichert werden. Ihr Vertrauen, der Schutz Ihrer Daten und die Sicherheit Ihrer Inhalte sind unser größtes Anliegen, und wir setzen geeignete und innovative technische und physische Kontrollmethoden ein, einschließlich Verschlüsselung im Ruhezustand und während der Übertragung, um unerlaubten Zugriff oder die unerlaubte Veröffentlichung Ihrer Inhalte zu vermeiden und sicherzustellen, dass wir Ihre Daten nur in Übereinstimmung mit unseren Verpflichtungen Ihnen gegenüber verwenden. Weitere Informationen finden Sie unter https://aws.amazon.com/compliance/data-privacy-faq/.

F: Bin ich immer noch Eigentümer der Inhalte, die von Amazon Rekognition verarbeitet und gespeichert werden?

Sie behalten immer die Eigentümerschaft an den Inhalten und wir verwenden Ihre Inhalte nur mit Ihrer Zustimmung.

F: Werden die Inhalte, die von Amazon Rekognition verarbeitet werden, aus der AWS-Region, in der ich Amazon Rekognition verwende, in andere verschoben?

Jegliche von Amazon Rekognition verarbeiteten Inhalte werden in der AWS-Region, in der Sie Amazon Rekognition verwenden, verschlüsselt und im Ruhezustand gespeichert. Sofern Sie sich nicht wie unten angegeben abmelden, kann ein Teil der von Amazon Rekognition verarbeiteten Inhalte in einer anderen AWS-Region gespeichert werden, und zwar ausschließlich im Zusammenhang mit der kontinuierlichen Verbesserung und Entwicklung Ihret Amazon Rekognition-Kundenerfahrung und anderer Amazon Technologien hinsichtlich Maschine Learning / künstliche Intelligenz. Um Bild- und Videoeingaben löschen zu lassen, die Ihrem Konto zugeordnet sind, wenden Sie sich bitte an den AWS-Support. Ihr Vertrauen, der Schutz Ihrer Daten und die Sicherheit Ihrer Inhalte sind unser größtes Anliegen, und wir setzen geeignete und innovative technische und physische Kontrollmethoden ein, einschließlich Verschlüsselung im Ruhezustand und während der Übertragung, um unerlaubten Zugriff oder die unerlaubte Veröffentlichung Ihrer Inhalte zu vermeiden und sicherzustellen, dass wir Ihre Daten nur in Übereinstimmung mit unseren Verpflichtungen Ihnen gegenüber verwenden. Weitere Informationen finden Sie unter https://aws.amazon.com/compliance/data-privacy-faq/. Ihre Inhalte werden nicht in einer anderen AWS-Region gespeichert, wenn Sie die Option deaktivieren, dass Ihre Inhalte zur Verbesserung und Entwicklung der Qualität von Amazon Rekognition und anderen Amazon-Technologien hinsichtlich Machine Learning / künstliche Intelligenz verwendet werden. Informationen zu Ihren Opt-Out-Möglichkeiten finden Sie unter Managing AI services opt-out policy.

F: Kann ich Amazon Rekognition zusammen mit Websites, Programmen oder anderen Anwendungen verwenden, die sich an Kinder unter 13 Jahren richten und dem Children’s Online Privacy Protection Act (COPPA) unterliegen?

Ja, entsprechend der Konformität mit den Amazon Rekognition-Nutzungsbedingungen, einschließlich Ihrer Verpflichtung, alle erforderlichen Hinweise bereitzustellen und alle erforderlichen überprüfbaren elterlichen Freigaben unter dem COPPA zu erhalten, können Sie Amazon Rekognition zusammen mit Websites, Programmen oder anderen Anwendungen verwenden, die sich ganz oder teilweise an Kinder unter 13 Jahren richten.

F: Wie ermittle ich, ob meine Website, mein Programm oder meine Anwendung dem COPPA unterliegt?

Informationen zu den Anforderung des COPPA und Hinweise, um zu ermitteln, ob Ihre Website, Ihr Programm oder Ihre Anwendung dem COPPA unterliegt, finden Sie direkt in den von der United States Federal Trade Commission bereitgestellten und verwalteten Ressourcen. Diese Website enthält außerdem Informationen, um zu ermitteln, ob sich ein Service ganz oder teilweise an Kinder unter 13 Jahre richtet.

F: Ist Amazon Rekognition ein HIPAA-geeigneter Service?

Amazon Rekognition ist ein Dienst, der die HIPAA-Voraussetzungen im Business Associate Addendum (AWS BAA) erfüllt. Mit einem AWS Business Associate Agreement (BAA) verwendet, verwaltet und legt Amazon Rekognition Ihre patientenbezogenen Daten nur entsprechend Ihres AWS-BAA offen.

Zugriffskontrolle

F: Wie kann ich den Zugriff auf Amazon Rekognition steuern?

Amazon Rekognition ist in AWS Identity and Access Management (IAM) integriert. Mithilfe der IAM-Richtlinien für AWS kann sichergestellt werden, dass nur autorisierte Benutzer Zugriff auf Amazon Rekognition-APIs haben. Weitere Informationen finden Sie auf der Seite zur Authentifizierung und Zugriffssteuerung in Amazon Rekognition.

Missbrauch melden

F: Wie kann ich einen potenziellen Missbrauch von Amazon Rekognition melden?

Wenn Sie vermuten, dass Amazon Rekognition in einer Weise verwendet wird, die missbräuchlich oder illegal ist oder Ihre Rechte oder die Rechte anderer Personen verletzt, melden Sie bitte diese Nutzung und AWS wird das Problem untersuchen.

Weitere Informationen zu den Amazon Rekognition-Preisen

Zur Seite mit den Preisen
Bereit zum Entwickeln?
Erste Schritte mit AWS Rekognition
Haben Sie Fragen?
Kontaktieren Sie uns