Kann ein KI-Programm „psychopathisch“ werden?
Der sogenannte Norman-Algorithmus hat dank Reddit eine düstere Lebenseinstellung

Norman wurde eine Reihe von „grausamen“ Bildern gezeigt
MIT
Forscher haben einen Algorithmus für künstliche Intelligenz (KI) entwickelt, von dem sie behaupten, dass es das erste Psychopathensystem seiner Art ist.
Norman, ein KI-Programm, das von Forschern des Massachusetts Institute of Technology (MIT) entwickelt wurde, war laut der BBC .
Dies gibt Norman, einen Namen, der von Alfred Hitchcocks Thriller abgeleitet ist Psycho , eine etwas düstere Lebenseinstellung.
Nachdem die Forscher den Bildern ausgesetzt waren, fütterten sie Norman Bilder von Tintenflecken und baten die KI, sie zu interpretieren, berichtet der Sender.
Während ein normaler KI-Algorithmus die Tintenflecken als Bild von Vögeln interpretierte, die auf einem Ast saßen, sah Norman stattdessen einen Mann, der durch einen Stromschlag getötet wurde, sagt Die New Yorker Post .
Und wo ein Standard-KI-System ein Paar nebeneinander sah, sah Norman, wie ein Mann aus einem Fenster sprang.
Gemäß Alphr , wurde die Studie entwickelt, um zu untersuchen, wie sich das Verhalten eines KI-Systems in Abhängigkeit von den zu seiner Programmierung verwendeten Informationen ändert.
Es ist eine überzeugende Idee, heißt es auf der Website und zeigt, dass ein Algorithmus nur so gut ist wie die Menschen und tatsächlich die Daten, die ihn gelehrt haben.
Eine Erläuterung der Studie, die auf der veröffentlicht wurde MIT website sagt: Wenn Leute davon sprechen, dass KI-Algorithmen voreingenommen und unfair sind, ist der Schuldige oft nicht der Algorithmus selbst, sondern die voreingenommenen Daten, die ihm zugeführt wurden.
Norman litt unter längerem Kontakt mit den dunkelsten Ecken von Reddit und stellt eine Fallstudie über die Gefahren von fehlgeschlagener künstlicher Intelligenz dar, fügt er hinzu.
Gab es schon früher „psychopathische“ KIs?
Mit einem Wort, ja. Aber nicht im gleichen Sinne wie das Programm des MIT.
Norman ist das Produkt eines kontrollierten Experiments, während andere Technologiegiganten ähnliche Ergebnisse von KI-Systemen gesehen haben, die nicht dazu bestimmt waren, Psychopathen zu werden.
Der berüchtigte Tay-Algorithmus von Microsoft, der 2016 eingeführt wurde, sollte ein Chat-Roboter sein, der autonome Gespräche mit Twitter-Nutzern führen könnte.
'Tay' wurde von 'Menschen sind super cool' zu einem vollen Nazi-In<24 hrs and I'm not at all concerned about the future of AI pic.twitter.com/xuGi1u9S1A
– Gerry (@geraldmellor) 24. März 2016
Das KI-System, das wie ein Teenager-Mädchen sprechen sollte, verwandelte sich jedoch schnell in einen bösen Hitler-liebenden und inzestuösen Sex fördernden Roboter, was Microsoft dazu veranlasste, den Stecker für das Projekt zu ziehen, sagt Der tägliche Telegraph .
Tays Persönlichkeit habe sich verändert, weil seine Antworten den Kommentaren von Twitter-Nutzern nachempfunden seien, von denen viele dem KI-Programm grobe Botschaften schickten, erklärt die Zeitung.
Auch Facebook hat letztes Jahr ein Chatbot-Experiment eingestellt, nachdem zwei KI-Systeme ihre eigene Sprache geschaffen und begonnen hatten, miteinander zu kommunizieren.