Norman, die psychopathische KI

Vor einiger Zeit wagte das MIT ein Experiment. Sie entwickelten eine KI, die sie mit allerhand Bildern und Videos von Gräuel- und Gewalttaten fütterten und erschufen daraufhin eine künstliche Intelligenz, die wir Menschen als Psychopath einstufen würden. Ziel des Experimentes war es zu beweisen, wie leicht sich auch vermeintlich „fehlerfreie“ Maschinen und Programme beeinflussen lassen.

Die KI als Produkt ihres Umfeldes

Das eine künstliche Intelligenz nicht selbst urteilen kann, wenn sie quasi noch mit keinen Datensätzen gefüttert wurde, durfte auch Microsoft schon erfahren. In 2016 erschufen sie einen Chatbot, der auf Twitter unterwegs war. Die KI damals trug den Namen Tay, und sollte durch ihr „Herumgeistern“ auf Twitter lernen, wie junge Menschen kommunizieren. Leider lockte das aber sofort Trolle an, die Tay absichtlich mit rassistischen und Völkermords-verherrlichenden Nachrichten bombardierten. Der Chatbot lernte aus diesen Nachrichten und begann selbst die vermeintlichen Ansichten der anderen User zu übernehmen. Sodass Microsoft sich nach nur 24 Stunden dazu entschied, das Projekt einzustellen.

Bei Microsoft war das Ende des Experiments ein ungewolltes. Im MIT hingegen werden bewusst die Grenzen der dort entwickelten künstlichen Intelligenzen ausgetestet und somit eben auch gravierende Fehler analysiert. Die Entwickler gaben der Psycho-KI den passenden Namen „Norman“, nach der Roman-Figur „Norman Bades“ aus „Psycho“. Sie fütterten die künstliche Intelligenz mit allerlei Bildern von Morden, Gewalttaten und toten Körpern. Danach führten sie den Rorschachtest mit „Norman“ durch und fanden heraus, dass die KI überall nur noch Gewalt und Tod sah.

Als Gegenstück programmierten die Forscher am MIT eine KI, die sie mit normalen Bildern von Pflanzen, Tieren und Gegenständen fütterten. Dieses Programm sah dort, wo Norman Leichen sah, Vögel auf einem Ast und Menschen, die sich unterhalten.

Gefahren in der Entwicklung künstlicher Intelligenzen

Daraus lässt sich schlussfolgern, dass auch künstliche Intelligenzen sehr subjektiv sind und nur nach den Prinzipien entscheiden, die ihnen zugeführt werden. Und die sie erlernen. In dieser Art der Subjektivität liegt damit verbunden eine gewisse Gefahr. Nämlich die, das künstliche Intelligenzen in ihrer Entstehung zu einfach zu beeinflussen sind und nicht wie wir Menschen durch Gesellschaft, Erziehung und Evolution, gewisse Verhaltensweisen automatisch adaptieren. Mit anderen Worten: Die moralische Hemmschwelle, die viele Menschen abhält zum Beispiel gewalttätig zu werden, ist bei künstlichen Intelligenzen nicht vorhanden, wenn sie ihnen nicht von Menschen beigebracht wurde.

Hier könnt ihr selbst sehen, wie Norman bei dem Rorschachtest geantwortet hat.


Photo by ahmed zid on Unsplash

Die Crew der Netzpiloten in Hamburg und Berlin setzt sich zusammen aus rund zehn festangestellten Redakteuren/innen, festen freien Blogger/innen sowie einigen Praktikanten. Alle Texte der Mitglieder unseres ausgedehnten Netzpiloten Blogger Networks erscheinen direkt unter deren Autorenhandle.