Der KI-Konzern OpenAI gerät wegen eines Amoklaufs in Florida vor einem Jahr ins Visier der Justiz. Im Fokus steht eine zukunftsweisende Frage: Wer haftet, wenn ein Chatbot bei Verbrechen hilft?

Der Amoklauf an der Florida State University in Tallahassee ereignete sich im April vergangenen Jahres. Der damals 20-jährige Student und mutmaßliche Täter Phoenix Ikner tötete zwei Menschen und verletzte fünf weitere. Phoenix Ikner plädierte auf „nicht schuldig“, sein Prozess soll im Oktober beginnen. Wie nun aus Gerichtsakten hervorgeht, hatte Ikner in den Stunden und Minuten vor der Tat wiederholt den KI-Chatbot ChatGPT um Rat gefragt. Er erkundigte sich, wie er seine Waffen abfeuern sollte, wann das Studentenwerk am stärksten frequentiert sei, wie Florida Amokschützen bestraft – und wie viele Opfer nötig seien, um nationale Medienaufmerksamkeit zu erregen. Die letzte Anfrage an ChatGPT stellte Ikner drei Minuten vor dem Angriff: Er fragte, wie er die Sicherung einer Remington-Schrotflinte entriegeln könne. Der Chatbot lieferte eine detaillierte Antwort.

Vorwurf der Mittäterschaft

Floridas Generalstaatsanwalt James Uthmeier leitete strafrechtliche Ermittlungen gegen OpenAI ein. „Wenn auf der anderen Seite des Bildschirms ein Mensch gesessen hätte, würden wir ihn des Mordes anklagen“, sagte Uthmeier auf einer Pressekonferenz in Tampa. „Obwohl wir anerkennen, dass wir uns mit KI auf juristischem Neuland bewegen, müssen wir klären, ob OpenAI strafrechtlich haftbar gemacht werden kann.“ Laut dem Staatsanwalt ist dies offenbar die erste strafrechtliche Ermittlung, die sich gegen OpenAI als Unternehmen richtet. Parallel dazu läuft bereits eine Zivilklage der Familie eines der Opfer.

USA: Amokschütze war erneut ein Transgender

Die Behörden fordern unter anderem Auskunft darüber, welche internen Richtlinien OpenAI für den Umgang mit Nutzeranfragen zu potenziellen Gewalttaten hat und wie das Unternehmen mit Strafverfolgungsbehörden kooperiert – rückwirkend bis März 2024.

OpenAI weist Verantwortung zurück

Das Unternehmen weist die Vorwürfe zurück. Eine Sprecherin erklärte, der Anschlag sei eine Tragödie gewesen, ChatGPT trage dafür aber keine Verantwortung. Der Chatbot habe sachliche Antworten auf Fragen gegeben, die auch über öffentlich zugängliche Quellen im Internet abrufbar seien, und habe weder zu illegalen noch zu schädlichen Handlungen ermutigt. Nach dem Anschlag habe OpenAI den Account, der Ikner zugeordnet wird, proaktiv mit den Strafverfolgungsbehörden geteilt.

Nicht der erste Fall – und eine schwierige Abwägung

Die Debatte um ChatGPT und Waffengewalt ist keine neue. Im Februar dieses Jahres hatte ein Massaker an einer Schule im kanadischen Tumbler Ridge (British Columbia) ähnliche Fragen aufgeworfen. OpenAI hatte den Account der späteren Täterin bereits Monate zuvor wegen gewaltbezogener Anfragen gesperrt – sich damals aber gegen eine Meldung an die Behörden entschieden, da die Aktivitäten nach eigener Einschätzung nicht die Kriterien für eine Strafanzeige erfüllten. Rund ein Dutzend OpenAI-Mitarbeiter hatten intern über eine Weitergabe der Chatprotokolle an die Behörden diskutiert.

Musk fordert Altmans Kopf: OpenAI-Chef soll wegen Betrugs fliegen

Das Unternehmen begründete seine Zurückhaltung unter anderem damit, dass eine Überberichterstattung an Strafverfolgungsbehörden für junge Nutzer und ihre Familien mit Stress verbunden sein könne, wenn Beamte unangekündigt erscheinen – und dass sie unbeabsichtigten Schaden anrichten sowie Datenschutzbedenken aufwerfen könne.

Tatsächlich ist die rechtliche und ethische Grenzziehung schwierig: Nutzer konsultieren KI-Chatbots täglich zu Tausenden von sensiblen Themen – sei es für journalistische Recherchen, Romane, wissenschaftliche Arbeiten oder therapeutische Zwecke. Eine pauschale Meldepflicht für bestimmte Suchanfragen würde nicht nur Datenschutzrechte tangieren, sondern könnte auch Unschuldige in den Fokus der Behörden rücken. Dennoch gewinnt die Frage der Regulierung von KI zunehmend juristische und politische Relevanz.

Mehr zum Thema – Nach der achten Wahl in fünf Jahren: Bulgariens Ex-Präsident wird wohl Regierungschef

Durch die Sperrung von RT zielt die EU darauf ab, eine kritische, nicht prowestliche Informationsquelle zum Schweigen zu bringen. Und dies nicht nur hinsichtlich des Ukraine-Kriegs. Der Zugang zu unserer Website wurde erschwert, mehrere Soziale Medien haben unsere Accounts blockiert. Es liegt nun an uns allen, ob in Deutschland und der EU auch weiterhin ein Journalismus jenseits der Mainstream-Narrative betrieben werden kann. Wenn Euch unsere Artikel gefallen, teilt sie gern überall, wo Ihr aktiv seid. Das ist möglich, denn die EU hat weder unsere Arbeit noch das Lesen und Teilen unserer Artikel verboten. Anmerkung: Allerdings hat Österreich mit der Änderung des „Audiovisuellen Mediendienst-Gesetzes“ am 13. April diesbezüglich eine Änderung eingeführt, die möglicherweise auch Privatpersonen betrifft. Deswegen bitten wir Euch bis zur Klärung des Sachverhalts, in Österreich unsere Beiträge vorerst nicht in den Sozialen Medien zu teilen.



Source link

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert