Im Oktober letzten Jahres begann Meta mit dem internationalen Test zweier Gesichtserkennungstools, um Betrug mit Bildern von Prominenten zu bekämpfen und Nutzern bei der Wiederherstellung gestohlener Facebook- oder Instagram-Konten zu helfen. Nach Absprache mit britischen Aufsichtsbehörden kündigte Meta kürzlich die Ausweitung dieses Tests auf Großbritannien an.
Die Einführung des Gesichtserkennungstools erfolgt mit Zustimmung der britischen Aufsichtsbehörden. Meta erklärte, dass die britische Regierung mit der Weiterentwicklung der Technologie auch die Anwendung von künstlicher Intelligenz zunehmend unterstützt. In den Ländern, in denen das Tool bereits eingeführt wurde, wird die Schutzfunktion gegen „Promi-Köder“ für Persönlichkeiten des öffentlichen Lebens erweitert.
Meta gab in einer Erklärung bekannt, dass Prominente in Großbritannien in den nächsten Wochen eine Benachrichtigung in der App erhalten werden, in der sie die Möglichkeit haben, den Schutz gegen „Promi-Köder“ zu aktivieren. Darüber hinaus können alle Nutzer die neue Funktion „Video-Selfie-Verifizierung“ optional nutzen. Meta betont, dass beide Tools optional sind.
Meta hat eine lange Geschichte in der Datennutzung. Bei der Einführung der beiden Gesichtserkennungstools im vergangenen Jahr erklärte das Unternehmen, dass diese Funktionen nur zur Bekämpfung von betrügerischen Anzeigen und zur Nutzerverifizierung verwendet werden. Monika Bickert, Vizepräsidentin für Content-Richtlinien bei Meta, erklärte in einem Blogbeitrag: „Wir löschen alle Gesichtsdaten sofort. Unabhängig davon, ob das System eine Übereinstimmung findet, werden sie nicht für andere Zwecke verwendet.“
Derzeit investiert Meta stark in künstliche Intelligenz, setzt sie nicht nur in seinen Produkten umfassend ein, sondern entwickelt auch eigenständige KI-Anwendungen. Gleichzeitig verstärkt Meta seine Lobbyarbeit im Technologiebereich und äußert sich zu einigen KI-Anwendungen, die als riskant gelten.
Die Gesichtserkennungstechnologie war schon immer ein heikles Thema für Meta. Kürzlich einigte sich Meta darauf, 1,4 Milliarden US-Dollar zu zahlen, um einen langwierigen Rechtsstreit im Zusammenhang mit der Gesichtserkennungstechnologie beizulegen. Bereits 2021 stellte Facebook sein seit zehn Jahren betriebenes Foto-Tool zur Gesichtserkennung aus regulatorischen und rechtlichen Gründen ein. Es ist erwähnenswert, dass das Unternehmen damals einen Teil des DeepFace-Modells behielt und erklärte, es in zukünftige Technologieprodukte zu integrieren, was wahrscheinlich mit den aktuellen Produkten zusammenhängt.
Wichtigste Punkte:
🌟 Meta führt in Großbritannien ein Gesichtserkennungstool zur Betrugsbekämpfung ein, das nach behördlicher Genehmigung erweitert wird.
🔒 Nutzer können optional den Schutz vor „Promi-Ködern“ und die Video-Selfie-Verifizierung nutzen, um Betrug zu bekämpfen.
💰 Meta einigte sich darauf, 1,4 Milliarden US-Dollar zu zahlen, um rechtliche Probleme im Zusammenhang mit der Gesichtserkennungstechnologie zu lösen und steht vor regulatorischen Herausforderungen.