Ein Vortrag von Professor Rosalind Picard vom MIT Media Lab auf der vielbeachteten NeurIPS-Konferenz über Künstliche Intelligenz löste aufgrund rassistischer Äußerungen schnell heftige Reaktionen in der Branche aus.
In ihrem Vortrag mit dem Titel „Wie man die wichtigsten Dinge optimiert“ erwähnte Picard einen „von einer Top-Universität verwiesenen chinesischen Studenten“ und zitierte diesen mit den Worten: „Die Schule hat niemanden, der Moral oder Werte lehrt“. Obwohl sie anschließend hinzufügte: „Die meisten Chinesen, die ich kenne, sind ehrlich und moralisch integer“, löste diese Aussage dennoch breite Kontroversen in der Branche aus.
Sun Jiao, Wissenschaftlerin bei Google DeepMind, teilte als Erste die Folien des Vortrags auf der Social-Media-Plattform X und bemerkte unverblümt: „Rassismus aus großen Sprachmodellen zu entfernen ist viel einfacher, als ihn aus Menschen zu entfernen!“ Tian Yuandong, Forschungswissenschaftler bei Meta, teilte Suns Kommentar und sagte deutlich: „Das ist offensichtlicher Rassismus. Wie kann das auf der NeurIPS passieren?“
In der Fragestunde nach dem Vortrag wies ein Teilnehmer darauf hin, dass dies die einzige Erwähnung der Nationalität einer Person in Picards Vortrag war, und fand dies „etwas anstößig“. Er schlug vor, dass Picard dieses Zitat in zukünftigen Vorträgen entfernen sollte, und Picard schien dem zuzustimmen.
Die Organisatoren der NeurIPS-Konferenz gaben schnell eine Erklärung ab und betonten: „Wir möchten diese Äußerung im heutigen Nachmittagsprogramm besonders hervorheben. Dies ist etwas, das NeurIPS auf keinen Fall toleriert und gegen unsere Verhaltensrichtlinien verstößt. Wir werden das Problem direkt mit der Sprecherin besprechen. NeurIPS engagiert sich für die Schaffung eines vielfältigen und integrativen Umfelds, in dem jeder gleich behandelt wird.“
Picard veröffentlichte daraufhin eine Entschuldigung und bedauerte die Erwähnung der Nationalität des Studenten. Sie gab zu: „Mir ist bewusst, dass dies unnötig war, nichts mit meinem Standpunkt zu tun hat und unerwartete negative Assoziationen hervorgerufen hat. Dafür entschuldige ich mich und es tut mir sehr leid für die entstandenen Unannehmlichkeiten. Ich werde aus dieser Erfahrung lernen und begrüße Vorschläge, wie ich der Community etwas zurückgeben kann.“
Dieser Vorfall unterstreicht erneut die Herausforderungen, vor denen die Technologie- und Wissenschaftsbranche bei der Beseitigung von Rassismus steht. Im Zeitalter des rasanten Fortschritts der künstlichen Intelligenz ist es für die Branche zu einer dringenden Aufgabe geworden, wie man gleichzeitig technologische Innovationen vorantreibt und Diskriminierung vermeidet und Inklusion fördert.
Es ist erwähnenswert, dass diese Kontroverse nicht die KI-Technologie selbst betrifft, sondern die tiefgreifenden Probleme im akademischen Bereich bei der Bewältigung kultureller Unterschiede und ethnischer Sensibilitäten aufzeigt. Dieser Vorfall könnte die Branche dazu anregen, die entsprechenden Mechanismen weiter zu überdenken und zu verbessern, um gemeinsam ein offeneres und respektvolleres akademisches Umfeld zu schaffen.