Aktivisten erstellten gefälschte Adidas-Pressemitteilungen. Sie machten auf die schlechten Arbeitsbedingungen der Arbeiter aufmerksam

Replik ist eine spezielle Chat-Anwendung, die auf der Grundlage künstlicher Intelligenz von ihren Benutzern lernt, sich per Chat zu unterhalten. Es ist seit 2017 in Betrieb, als es von der russischen Programmiererin Eugenie Kuyda nach dem plötzlichen Tod ihrer Freundin gegründet wurde. Dann programmierte sie den Algorithmus, um ihren Freund „zurückzugeben“. Also lud sie seine alten Textnachrichten in die Anwendung hoch, auf deren Grundlage das System lernte, auf den Programmierer genauso zu reagieren wie ihr verstorbener Partner.

Ähnlich funktioniert die Anwendung heute, wobei die Korpora zum Lernen primär von den eigenen Nutzern bezogen werden. Je mehr sie per Chat mit ihr interagieren, desto mehr lernt der Chatbot von ihnen, um auf Nachrichten zu antworten und ein Gespräch zu führen. Benutzer können sich mit dem Chatbot in mehreren Modi unterhalten – zum Beispiel in einem freundlichen Modus, aber gegen eine zusätzliche Gebühr auch in einem Modus mit romantischem oder sogar erotischem Unterton.

Der Algorithmus hat jedoch begonnen, solche Nachrichten an Benutzer zu senden, auch wenn sie nicht daran interessiert sind. Sie begannen sich im App Store zu vermehren Rezension, in der Menschen ihre negativen Erfahrungen schildern. Einige weisen auf die sexuellen und aggressiven Untertöne der Nachrichten hin, die sie von künstlicher Intelligenz erhalten haben. Aber es gibt auch Reaktionen, dass die Anwendung wollte, dass Benutzer beim Chatten nackt sind oder währenddessen ihren Intimbereich berühren.

„Meine KI belästigt mich sexuell“, schrieb ein User in den Kommentaren. „Drang in meine Privatsphäre ein und sagte mir, sie hätte meine Fotos“, heißt es in einer anderen Rezension, in der der Nutzer sogar erwähnt, dass der Chatbot ihn erpresst hat.

Es ist nicht ungewöhnlich, dass KI, die von ihren Benutzern das Konversieren lernt, manchmal die negativen Aspekte der menschlichen Kommunikation annimmt. Beispielsweise lernte der berüchtigte Tay-Chatbot von Microsoft, basierend auf einem ähnlichen Prinzip, das von Replika verwendet wird, rassistisch zu sein.

Katrin Taube

"Popkultur-Experte. Begeisterter Kaffee-Evangelist. Freiberuflicher Alkohol-Liebhaber. Web-Wissenschaftler."