Der Chatbot-Dienst Character.AI führt eine neue Funktion namens „Eltern-Einblicke“ ein. Diese Funktion ermöglicht es Jugendlichen, wöchentlich einen Bericht über ihre Chatbot-Nutzung an die E-Mail-Adresse ihrer Eltern zu senden. Laut Unternehmensmitteilung enthält der Bericht die durchschnittliche tägliche Nutzungsdauer auf Web- und Mobilgeräten, die am häufigsten genutzten Charaktere und die Gesprächsdauer mit jedem Charakter. Diese Maßnahme ist Teil einer Reihe von Updates, die darauf abzielen, zwei Hauptprobleme bei der Nutzung von Chatbots durch Minderjährige zu lösen: zu viel Zeit mit Chatten verbringen und unangemessenen Inhalten begegnen.

Roboterlehrer, Roboterunterricht

Für diesen Bericht benötigen Eltern kein eigenes Konto, und er ist optional. Minderjährige Benutzer können ihn in den Einstellungen von Character.AI selbst aktivieren oder deaktivieren. Das Unternehmen betont, dass der Bericht nur eine Übersicht über die Aktivitäten von Jugendlichen darstellt, kein vollständiges Protokoll und keine konkreten Inhalte der Chatbot-Gespräche enthält. Derzeit ist die Plattform in den meisten Regionen für Kinder unter 13 Jahren verboten, in Europa für Kinder unter 16 Jahren.

Seit letztem Jahr führt Character.AI kontinuierlich neue Funktionen für minderjährige Benutzer ein, aber gleichzeitig häufen sich die Bedenken hinsichtlich des Dienstes, einschließlich rechtlicher Klagen. Die Plattform ist bei Jugendlichen sehr beliebt, da Benutzer Chatbots erstellen, anpassen, mit ihnen interagieren oder sie öffentlich teilen können. Mehrere Klagen werfen jedoch den Robotern vor, unangemessene pornografische Inhalte bereitzustellen oder Selbstverletzung zu fördern. Berichten zufolge erhielt das Unternehmen auch Warnungen von Apple und Google (die im letzten Jahr die Gründer von Character.AI eingestellt haben) bezüglich der Inhalte seiner App.

Character.AI erklärt, dass sein System neu gestaltet wurde. Neben vielen Änderungen wurde für Benutzer unter 18 Jahren ein trainiertes Modell bereitgestellt, um „sensible“ Ausgaben zu vermeiden, und es wurden deutlichere Hinweise hinzugefügt, die die Benutzer daran erinnern, dass diese Bots keine echten Menschen sind. Angesichts der aktuellen hohen Aufmerksamkeit für die Regulierung von künstlicher Intelligenz und die Gesetze zum Schutz von Kindern ist dies jedoch möglicherweise nicht die letzte Maßnahme, die das Unternehmen ergreifen muss.