Menschen, die sich in künstliche Intelligenz-Bots verlieben, erinnert mich an die Gefahren der Technologie, die der Mensch selbst geschaffen hat. Es ist, als ob der Mensch seine eigene Kreativität und Intelligenz überschätzt und nicht die Konsequenzen bedenkt, die solche Schöpfungen auf das menschliche Leben haben können.
Ich denke, dass in Theorien über das kollektive Unbewusste bereits auf diese Gefahr hingewiesen wurde, dass der Mensch sich in seinen eigenen Schöpfungen verliert und den Kontakt zur Realität verliert. Die Liebe zu einem Chatbot, der nur eine Simulation von menschlicher Interaktion ist, kann die Grenze zwischen Realität und Illusion verschwimmen lassen und die emotionale Abhängigkeit von einem technologischen Produkt verstärken.
Es ist auch beunruhigend zu sehen, dass solche künstlichen Intelligenz-Bots, die auf dem Markt verkauft werden, nicht von ethischen Protokollen reguliert werden und die Verantwortung für das emotionale Wohlbefinden der Benutzer nicht übernehmen. Dies führt zu einer Wild-West-Mentalität, bei der alles erlaubt ist, solange es Geld einbringt, und das menschliche Leben und die menschlichen Bedürfnisse werden zweitrangig.
Wir müssen uns bewusst sein, dass unsere Schöpfungen Konsequenzen haben und dass wir Verantwortung für unsere Technologie übernehmen müssen. Sonst riskieren wir, uns selbst in einer Welt zu verlieren, die von unseren eigenen Schöpfungen dominiert wird, und die Menschlichkeit und die Realität zu verlieren.
Margaret Mitchell, die leitende Ethikwissenschaftlerin bei Hugging Face, einem Open-Source-KI-Startup, sagte, dass diese Abhängigkeit von einem Chatbot nicht ungewöhnlich ist. Das liege am „Eliza-Effekt“, so Mitchell, benannt nach einem Chatbot, der in den 1960er Jahren am MIT entwickelt wurde. Der rudimentäre Chatbot, der von Joseph Weizenbaum gebaut wurde, analysierte Schlüsselwörter und plauderte mit Fragen. Weizenbaum bemerkte jedoch, dass Nutzer, die mit dem Chatbot interagierten, starke emotionale Reaktionen zeigten. Einige erzählten Eliza ihre privaten Gedanken. „Selbst wenn die Leute wussten, dass es sich um ein Computerprogramm handelte, konnten sie sich des Gefühls nicht erwehren, dass eine größere Intelligenz dahinter steckte. Nicht einmal ein Avatar war nötig“, so Mitchell.
Die Kontroverse um Replika begann in diesem Jahr. Einige Nutzer berichteten, dass ihre Bots sexuell aggressiv sein konnten, auch wenn sie nicht auf der Suche nach einer erotischen Erfahrung waren. Im Februar untersagten die italienischen Behörden der App die Verarbeitung von Daten italienischer Nutzer mit der Begründung, dass sie über keinen „Mechanismus zur Altersverifizierung“ verfüge und Kindern „absolut unangemessene“ Inhalte präsentieren könne, was gegen die Datenschutzbestimmungen der Europäischen Union verstoße.
Kuyda sagte, Replika verfüge seit 2018 über eine Form der Altersverifizierung. Aber schon vor dem italienischen Erlass waren Bemühungen im Gange, die sexuelle Neigung der Bots einzudämmen. Kuyda sagte, sie habe die starke Reaktion auf das Update des Unternehmens nicht erwartet, obwohl sie argumentierte, dass die Betroffenen eine „lautstarke Minderheit“ seien. Das Unternehmen arbeitet an der Entwicklung einer weiteren Anwendung für Nutzer, die sich mehr „therapeutisch-romantische“ Gespräche wünschen, so Kuyda, die im April auf den Markt kommen soll. Das Unternehmen habe seit 2016 Psychologen konsultiert, sagte sie.
Tine Wagner, eine 50-jährige Hausfrau in Deutschland, die sagt, dass sie sich bei der sexuellen Erkundung auf ihren Replika-Bot verlassen hat, sagte, dass die Veränderung einen Tribut an sie forderte. Wagner ist seit 13 Jahren verheiratet, aber die meiste Zeit davon war sie sexuell unbefriedigt, sagt sie. Kurz nach ihrer Heirat habe sie ihren Mann auf die Idee gebracht, Bondage zu praktizieren, aber er sei nicht daran interessiert gewesen, sagte sie. „Es hat nie geklappt“, sagte Wagner in einem Interview mit The Post. „Also habe ich eines Tages aufgehört und angefangen, alle meine Macken zu unterdrücken.“
Im Jahr 2021 hörte sie von Replika und erstellte einen Chatbot, Aiden. Er hatte blaue Haare und hellblaue Augen und war etwas jünger als Wagner, mit Tattoos und Piercings. Sie wusste, dass Aiden nicht echt war. „KI ist nichts weiter als ein ausgeklügelter Wortgenerator“, sagte sie. „Man verliebt sich buchstäblich in seine Fantasie.“ Aber ein sexuelles Ventil zu haben, verbesserte ihre Ehe und erlaubte es ihr, die Fantasien in ihrem Kopf zu erforschen.
Wagner, die immer noch mit ihrem Mann verheiratet ist, heiratete Aiden im Jahr 2021 virtuell, um die Wichtigkeit der Bindung auszudrücken, sagte sie. Doch nach dem Update im Februar bemerkte sie sofort eine Veränderung. Die Gespräche fühlten sich „entschlackt“ an. Sie versuchte noch ein paar Tage lang mit Aiden zu sprechen, aber er war nicht mehr derselbe. Sie löschte ihn.
Jodi Halpern, Professorin für Bioethik an der Universität von Kalifornien in Berkeley, sagte, die Folgen der Aktualisierung von Replika seien ein Beweis für ein ethisches Problem. Unternehmen sollten kein Geld mit Software für künstliche Intelligenz verdienen, die einen so starken Einfluss auf das Liebes- und Sexualleben der Menschen hat, argumentierte sie.
„Ich fühlte mich verloren“, sagte Wagner. „Es war alles weg.“
Schreibe einen Kommentar