Technologie-Transparenz KI-Forschende wollen warnen dürfen – aber ...

Quelle: dpa 3 min Lesedauer

Die Entwickler künstlicher Intelligenz bei Unternehmen wie Open AI dürften am besten die damit verbundene Risiken einschätzen können. Viele der Expertinnen und Experten fürchten jedoch Vergeltungsmaßnahmen bei Kritik, wie die dpa erfuhr.

Nach Ansicht einiger KI-Forscher birgt künstliche Intelligenz großes Gefahrenpotenzial für die Menschheit. Deshalb wünschen sich einige Experten in einem offenen Brief, dass sie vor unlauteren Trends auch konsequenzlos warnen dürfen.(Bild:  frei lizenziert /  Pixabay)
Nach Ansicht einiger KI-Forscher birgt künstliche Intelligenz großes Gefahrenpotenzial für die Menschheit. Deshalb wünschen sich einige Experten in einem offenen Brief, dass sie vor unlauteren Trends auch konsequenzlos warnen dürfen.
(Bild: frei lizenziert / Pixabay)

Eine Gruppe von KI-Forschern – unter anderem vom ChatGPT-Erfinder Open AI – fordert das Recht ein, die Öffentlichkeit über Gefahren der Software warnen zu dürfen. Der aktuelle Schutz für Whistleblower reiche demnach nicht aus, wie aus einem offenen Brief hervorgehe. Denn dieser Schutz sei vor allem auf illegale Aktivitäten ausgerichtet. Aber bei künstlicher Intelligenz gebe es in vielen Fällen noch keine rechtlichen Vorgaben. Einige der Mahner fürchten zu Recht Vergeltungsmaßnahmen, weil es bereits solche Fälle in der Branche gab. Ein Beispiel dafür wurde nur wenig später bekannt. Dabei ging es um den ehemaligen Open-AI-Forscher Leopold Aschenbrenner, der im Dwarkesh Podcast offenbarte, dass er gefeuert worden ist, nachdem er sich beim Verwaltungsrat des Unternehmens über KI-Sicherheit besorgt gezeigt hat.

KI-Mitarbeiter dürfen keinen Maulkorb verpasst bekommen

Die Forscher rufen deshalb die Unternehmen mit fortgeschrittenen KI-Modellen auf, einge Grundsätze zu befolgen. Dazu gehört, den Mitarbeitern negative Äußerungen über ihre Arbeitgeber nicht zu verbieten. Denn jüngst wurde bekannt, dass Open AI ehemaligen Mitarbeitern mit dem Verfall ihrer Aktienoptionen drohte, wenn sie das Unternehmen verunglimpfen sollten. Open-AI-Chef Sam Altman entschuldigte sich zwar und ließ die Klausel, von der er nichts gewusst habe, streichen. Er behauptete außerdem auch, sie sei nie angewendet worden. Altman war im November vom Verwaltungsrat von Open AI überraschend unter Verweis auf einen Vertrauensverlust aus dem Unternehmen gedrängt worden. Nur wenige Tage später kehrte Altman wieder auf den Posten zurück, nachdem sich zahlreiche Mitarbeiter und der Großaktionär Microsoft hinter ihn gestellt hatten.

Eine weitere Forderung betrifft ein Verfahren, mit dem Mitarbeiter anonym die Verwaltungsräte von Unternehmen sowie Regulierer über aus ihrer Sicht bestehende Risiken bei KI-Software informieren können. Diese müssten schließlich auch die Freiheit haben, an die Öffentlichkeit zu gehen, solange es keine internen Wege gebe. Eine Sprecherin von Open AI sagte zu dem Brief, dass das Unternehmen an eine wissenschaftliche Herangehensweise an Risiken der Technologie glaubt. Mitarbeitern stehe demnach frei, auch anonym ihre Sorgen zu teilen. Zugleich dürften dabei aber vertrauliche Informationen nicht öffentlich gemacht werden, die dadurch in die falschen Hände geraten könnten.

KI könnte schlimmstenfalls zu einer Art Terminator-Effekt führen

Einige KI-Experten warnen schon lange, die rasante Entwicklung künstlicher Intelligenz könne zu autonomer Software führen, die sich der Kontrolle der Menschen entziehe. Die Folgen könnten von der Verbreitung von Falschinformation und Jobverlusten in großem Stil bis hin zur Vernichtung der Menschen reichen, heißt es oft. Regierungen arbeiten auch deswegen daran, Regeln für die Entwicklung von KI-Software aufzustellen. Open AI gilt mit der Software hinter Chat GPT als ein Vorreiter in dem Bereich. Vier aktuelle und zwei frühere Mitarbeiter von Open AI schlossen sich dem Brief nur anonym an. Unter den sieben Unterzeichnern, die ihre Namen öffentlich machten, sind fünf ehemalige Beschäftigte von Open AI und ein früherer Mitarbeiter der Google-Tochter Deepmind. Neel Nanda, der derzeit bei Deepmind arbeitet und zuvor beim KI-Start-up Anthropic war, betonte zugleich, dass ihm bei seinem aktuellen und früheren Arbeitgebern nichts untergekommen sei, wovor er warnen wolle. Zuletzt geriet Open AI unter Druck, nachdem Schauspielerin Scarlett Johansson wissen wollte, wieso eine Stimme von Chat GPT ihrer eigenen sehr ähnlich klang, obwohl sie das Angebot ausgeschlagen habe, Sprachdaten dafür zu liefern.

(ID:50053544)

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung