Google Deep-Mind Mitbegründer warnt vor Einsatz von KI zur Konstruktion von biologischen Viren
Synthetische Viren könnten durch den Missbrauch künstlicher Intelligenz erzeugt werden und potenziell Pandemien auslösen, warnte ein ehemaliger Google-Manager und KI-Experte.
Mustafa Suleyman, Mitbegründer von Google DeepMind, äußerte Bedenken, dass der Einsatz von KI zur Konstruktion von Krankheitserregern, die mehr Schaden anrichten sollen, zu einer Situation wie einer Pandemie führen könnte.
„Das düsterste Szenario ist, dass Menschen mit pathogenen Erregern experimentieren, synthetische Erreger entwickeln, die möglicherweise versehentlich oder absichtlich ansteckender oder tödlicher werden könnten“, sagte er in einer kürzlich erschienenen Folge eines Podcasts.
Ähnlich wie es Beschränkungen gibt, um den Zugang zu pathogenen Mikroben wie Milzbrand zu verhindern, hat Herr Suleyman gefordert, den Zugang zu fortgeschrittener KI-Technologie und Software, die solche Modelle ausführt, einzuschränken.
„Dort brauchen wir eine Begrenzung. Wir müssen den Zugang zu den Werkzeugen und dem Know-how zur Durchführung solcher Experimente einschränken“, sagte er in einem Podcast von The Diary of a CEO.
„Wir dürfen nicht zulassen, dass einfach jeder Zugang dazu hat. Wir müssen begrenzen, wer die KI-Software, die Cloud-Systeme und sogar einige biologische Materialien nutzen kann“, sagte der Mitbegründer von Google DeepMind.
„Und natürlich auf der biologischen Seite bedeutet das, den Zugang zu einigen Substanzen einzuschränken“, fügte er hinzu, und betonte, dass die Entwicklung von KI mit dem „Vorsorgeprinzip“ angegangen werden muss.
Die Aussagen von Herrn Suleyman spiegeln Bedenken wider, die in einer kürzlich veröffentlichten Studie geäußert wurden, wonach selbst Studierende ohne relevanten Hintergrund in Biologie Vorschläge für Bio-Waffen von KI-Systemen erstellen können.
Forscher, darunter Wissenschaftler vom Massachusetts Institute of Technology, fanden heraus, dass Chatbots innerhalb einer Stunde „vier potenzielle pandemische Erreger“ vorschlagen können und erklären können, wie sie aus synthetischer DNA erzeugt werden können.
Die Forschung zeigte, dass Chatbots auch „die Namen von DNA-Syntheseunternehmen nannten, die wahrscheinlich keine Aufträge überprüfen, detaillierte Protokolle identifizierten und erklärten, wie man Probleme behebt, und empfahlen, dass jeder, der nicht über die Fähigkeiten zur Durchführung von Reverse-Genetik verfügt, sich an eine Kernfazilität oder ein Auftragsforschungsunternehmen wenden solle“.
Solche große Sprachmodelle (LLMs) wie ChatGPT „werden pandemiefähige Agenten weit verbreitet zugänglich machen, sobald sie glaubwürdig identifiziert sind, selbst für Menschen mit wenig oder keiner Laborausbildung“, so die Studie.
Die Studie, deren Autoren unter anderem der MIT-Experte für Bio-Risiken, Kevin Esvelt, angehörte, forderte „Maßnahmen zur Nichtverbreitung“.
Solche Maßnahmen könnten „Vorabprüfungen von LLMs durch Dritte, die Zusammenstellung von Schulungsdatensätzen zur Entfernung schädlicher Konzepte und die verifizierbare Überprüfung aller von Syntheseanbietern erzeugten DNA oder von Auftragsforschungsunternehmen verwendeten DNA und robotische ‚Cloud-Labore‘ zur Entwicklung von Organismen oder Viren“ umfassen.