Kürzlich veröffentlichte Deloitte einen Bericht, der die Bedeutung des Datenschutzes bei generativer künstlicher Intelligenz (GenAI) aufzeigt. Der Studie zufolge sind die Bedenken von Fachleuten hinsichtlich des Datenschutzes deutlich gestiegen: Waren es 2023 nur 22 %, die dies als Hauptanliegen nannten, so stieg dieser Anteil 2024 auf 72 %. Dies zeigt, dass mit dem Fortschritt der Technologie das Bewusstsein für die potenziellen Risiken zunimmt.
Bildquelle: Das Bild wurde mit KI generiert, Bildrechte liegen bei Midjourney.
Neben dem Datenschutz stehen Transparenz und Datenherkunft im Fokus: 47 % bzw. 40 % der Fachleute nannten diese Punkte als wichtige Anliegen. Demgegenüber äußerten nur 16 % Bedenken hinsichtlich des Arbeitsplatzverlusts. Die Umfrage zeigt, dass Mitarbeiter zunehmend neugierig auf die Funktionsweise von KI-Technologien sind, insbesondere im Umgang mit sensiblen Daten. Eine Studie von HackerOne ergab ebenfalls, dass fast die Hälfte der Sicherheitsexperten KI-Risiken sieht, wobei viele die Weitergabe von Trainingsdaten als große Bedrohung einstufen.
Der Deloitte-Bericht erwähnt außerdem, dass 78 % der Wirtschaftsführer „Sicherheit und Schutz“ als einen ihrer drei wichtigsten ethischen Technologieprinzipien ansehen – ein Anstieg um 37 % gegenüber 2023. Dies verdeutlicht die wachsende Bedeutung von Sicherheitsaspekten. Etwa die Hälfte der Befragten gab an, dass kognitive Technologien wie KI und GenAI das größte ethische Risiko unter den neuen Technologien darstellen, insbesondere da einige hochkarätige KI-Sicherheitsvorfälle für mehr Aufmerksamkeit gesorgt haben. Beispielsweise hat ein Fehler bei OpenAIs ChatGPT zur Weitergabe persönlicher Daten von etwa 1,2 % der ChatGPT Plus-Nutzer geführt, darunter Name, E-Mail-Adresse und teilweise Zahlungsinformationen.
Da immer mehr Mitarbeiter generative KI bei der Arbeit einsetzen, zeigt die Deloitte-Umfrage, dass der Anteil der Fachleute, die diese Technologie intern nutzen, im Vergleich zum Vorjahr um 20 % gestiegen ist. Viele Unternehmen befinden sich jedoch noch in der Pilotphase: Nur 12 % der Befragten gaben an, die Technologie umfassend einzusetzen. Gleichzeitig wollen Entscheidungsträger sicherstellen, dass bei der Verwendung von KI keine Gesetze oder Vorschriften verletzt werden. Daher nannten 34 % der Befragten die Compliance als Hauptgrund für die Erstellung ethischer Technologie-Richtlinien und -Leitlinien.
Die EU-KI-Verordnung trat am 1. August dieses Jahres in Kraft und stellt strenge Anforderungen an Hochrisiko-KI-Systeme, um deren Sicherheit, Transparenz und ethische Anwendung zu gewährleisten. Nicht-Compliance kann zu Bußgeldern von bis zu 35 Millionen Euro oder 7 % des Umsatzes führen. Viele Unternehmen, darunter Amazon, Google, Microsoft und OpenAI, haben die EU-KI-Vereinbarung unterzeichnet, um die Anforderungen des Gesetzes vorzeitig umzusetzen und ihr Engagement für eine verantwortungsvolle KI-Einführung zu demonstrieren.
Wichtigste Punkte:
- 🔒 Datenschutz ist 2024 die größte Sorge bei generativer KI, der Anteil stieg von 22 % auf 72 %.
- 📈 78 % der Wirtschaftsführer nennen „Sicherheit und Schutz“ als eines ihrer drei wichtigsten ethischen Technologieprinzipien und betonen damit die Bedeutung der Sicherheit.
- ⚖️ Die EU-KI-Verordnung hat weitreichende Auswirkungen und zwingt Unternehmen zu notwendigen Anpassungen und Compliance bei der KI-Nutzung.