Gemeinwohlorientierte KI: Chancen und Gefahren

Künstliche Intelligenz ist auf dem Vormarsch. Der Einsatz von KI-Systemen kann das Gemeinwohl fördern, birgt jedoch auch Risiken. Neben ethischen Fragen sind vor allem Sicherheitsaspekte zu beachten.

Hand eines Mannes hält neben einem Notebook Glühbirne mit AI-Symbol
Gemeinnützige KI. Foto: Adobe Stock

Wenn von künstlicher Intelligenz (KI) die Rede ist, denken die meisten zuallererst an den Textgenerator ChatGPT der Entwicklerfirma OpenAI, der Ende 2022 einen regelrechten Boom erfuhr. Seitdem berichten Medien regelmäßig über die Weiterentwicklung von ChatGPT, aber auch Kritik und Sorge wegen mangelnden Datenschutzes sind zu vernehmen. KI ahmt menschliches Verhalten nach, indem sie auf Grundlage großer, ins System eingespeister Datenmengen algorithmenbasierte Entscheidungen trifft. So kann eine künstliche Intelligenz anhand bestimmter „Prompts“ (Eingabeaufforderungen) beispielsweise Texte erstellen oder Bilder generieren und lernt, Muster zu erkennen. Erst im Februar 2024 verlautbarte OpenAI, dass ChatGPT ein Gedächtnis bekommen soll, mit dem sich das KI-System Informationen zu seinen Userinnen und Usern merken und im Bedarfsfall abrufen kann. Zur selben Zeit sperrte OpenAI außerdem die Accounts fünf regierungsnaher Hackergruppen aus China, dem Iran, Nordkorea und Russland, die die Technologie nutzten, um Softwareentwicklungen zu automatisieren und Phishing-Mails zu verfassen.

Solche Nachrichten rund um das Thema KI gehören spätestens seit dem Beginn des Hypes um ChatGPT zum Alltag. Nicht ohne Grund weckt der Vormarsch von künstlicher Intelligenz bei vielen Ängste, schließlich kann eine missbräuchliche Nutzung, etwa in Form von Cyberattacken oder Desinformationskampagnen, erheblichen Schaden anrichten. Andererseits lassen sich mithilfe von KI-Systemen auch positive Entwicklungen im Zeichen des Umweltschutzes oder der Inklusion anstoßen. Das Potenzial dafür wäre vorhanden, allerdings kommt gemeinwohlorientierte KI noch eher selten zum Einsatz.

Hinweis

Näheres zur Funktionsweise von Textgeneratoren wie ChatGPT erfahren Sie im Beitrag „KI-Textgeneratoren: So funktionieren AI-Anwendungen wie ChatGPT und Co.“. Weitere Informationen zu möglichen Gefahren von KI bietet der Artikel „Künstliche Intelligenz im Spannungsfeld der IT-Sicherheit“.

Was ist gemeinwohlorientierte KI?

Gemeinwohlorientierte KI dient allgemeinen gesellschaftlichen Interessen, bietet Partizipationsmöglichkeiten und ist als Open-Source-Code öffentlich überprüfbar. Dabei steht die soziale Einbettung im Vordergrund. Gemeinwohlorientierte KI wird eingesetzt, um zur Bewältigung von Herausforderungen möglichst vieler Mitglieder einer Gemeinschaft beizutragen, ohne dass dabei Profitinteressen im Vordergrund stehen. Was für Anwendungen in diesem Sinn als gemeinwohlorientiert gelten, richtet sich nach den jeweiligen Bedürfnissen einer Gesellschaft.

Hinweis

Die Sozialwissenschaftlerin Theresa Züger vom Humboldt-Institut für Internet und Gesellschaft (HIIG) in Berlin definiert derartige Anwendungen als Systeme, die „jene Ergebnisse unterstützen, die dem langfristigen Überleben und Wohlergehen eines als ‚Öffentlichkeit‘ verstandenen sozialen Kollektivs am besten dienen“. Auf der Website Publicinterest.Ai findet sich eine Liste gemeinwohlorientierter KI-Projekte auf der ganzen Welt, einschließlich spezifischer Ziele, Methoden und Rahmenbedingungen.

Wo kommt gemeinwohlorientierte KI zur Anwendung?

Ideen für KI-Anwendungen, die das Gemeinwohl fördern, gibt es viele. Um diese einzurichten oder auszubauen, fehle es zivilgesellschaftlichen und öffentlichen Akteuren wie gemeinnützigen Organisationen, Universitäten oder Gemeinden jedoch an Datenkompetenz, personellen Ressourcen und finanziellen Mitteln. Zu diesem Schluss kommt die deutsche Bertelsmann Stiftung im Rahmen des Projekts „reframe[Tech] – Algorithmen fürs Gemeinwohl“. Allerdings gebe es bereits konkrete, funktionierende Anwendungsbeispiele von künstlicher Intelligenz mit Fokus auf das Gemeinwohl. Genannt werden etwa ein KI-gestütztes System zur Erfassung des Straßenzustands oder ein Monitoring-System, das durch die Überwachung von Bienenvölkern zu deren Erhalt beitragen soll.

Vor allem in der Medizin ist die Hoffnung groß, dass künstliche Intelligenz schon bald in der Lage sein wird, Aufgaben wie die Kommunikation mit Patientinnen und Patienten oder Diagnosen zu übernehmen. Ärztinnen und Ärzte könnten zudem dabei unterstützt werden, bei bestimmten (schweren) Erkrankungen die jeweils beste Behandlungsform zu wählen. Obwohl dahinter häufig private Unternehmen mit wirtschaftlichen Interessen stehen, werden derartige Anwendungen meist zu gemeinwohlorientierter KI gezählt. Abseits der zahlreichen Möglichkeiten, Arbeitsabläufe zu erleichtern und effizienter zu gestalten, steht die Gesellschaft auch vor der ethischen Frage, ob wichtige medizinische Entscheidungen einem Algorithmus überlassen werden sollten.

Welche Risiken birgt gemeinwohlorientierte KI?

In der Kritik steht neben der Gefahr des Missbrauchs personenbezogener Daten und dem hohen Energieverbrauch auch das Risiko des sogenannten Dual-Use. Darunter versteht man die militärische Nutzung einer grundsätzlich gemeinwohlorientierten KI-Anwendung. Anfang März 2022 errechnete die US-amerikanische Pharma-Software „MegaSyn“, die eigentlich neue Molekülverbindungen für Therapieanwendungen entdecken sollte, binnen sechs Stunden 40.000 potenzielle chemische Kampfstoffe, die allesamt tödlicher waren als das Nervengift VX. Dieser Selbsttest der MegaSyn-Forschenden, Missbrauchsmöglichkeiten im Zusammenhang mit der Software zu überprüfen, stieß eine weltweite Diskussion zum Thema Dual-Use von KI-Systemen an. Das Beispiel MegaSyn macht deutlich, wie notwendig es ist, sich als Gesellschaft auch über die Gefahrenpotenziale von KI-Systemen im Klaren zu sein.

Hinweis

Dass gemeinwohlorientierte künstliche Intelligenz ebenso wie sämtliche anderen KI-Anwendungen einen gesetzlichen Rahmen braucht, damit ihr Potenzial genutzt werden kann, ohne dabei mögliche Risiken außer Acht zu lassen, ist auch der österreichischen Politik bewusst. Daher sieht die 2021 veröffentlichte KI-Strategie „Artificial Intelligence Mission Austria 2030“ (AIM AT 2030) der Bundesregierung als eines der drei primären Ziele vor, „einen am Gemeinwohl orientierten, breiten Einsatz von KI anzustreben, der in verantwortungsvoller Weise auf Basis von Grund- und Menschenrechten, europäischen Grundwerten und des kommenden europäischen Rechtsrahmens erfolgt“. Mehr Informationen zur KI-Strategie der österreichischen Bundesregierung finden Sie hier.

Letzte Aktualisierung: 11. März 2024

Für den Inhalt verantwortlich: A-SIT Zentrum für sichere Informationstechnologie – Austria