Die KI als Challenge: die Aufgaben des AI Advisory Boards (KI-Beirat)

Um für die gesellschaftlichen Herausforderungen durch die KI gewappnet zu sein, hat die Bundesregierung den KI-Beirat ins Leben gerufen. Über die Aufgaben, Entwicklungen und populäre Irrtürmer im Zusammenhang mit künstlicher Intelligenz erzählt der Vorsitzende des Gremiums Horst Bischof.

Symbolbild für Artificial Intelligence mit leuchtendem Netzwerk und vertikalen Reihen aus Nullen und Einsen
Artificial Intelligence. Foto Adobe Stock

Im Dezember 2023 präsentierte die Bundesregierung das AI Advisory Board – ein Gremium aus Wissenschaftlerinnen und Wissenschaftlern mit Expertise im Bereich der künstlichen Intelligenz. Der KI-Beirat, so die deutsche Bezeichnung des Gremiums, soll zukünftig die Politik des Landes bei Fragen rund um KI-Technologien und -Gesetze beraten. Wie die Aufgaben des elfköpfigen KI-Beirats konkret aussehen, lesen Sie im Interview mit Horst Bischof, Rektor der TU Graz und Vorsitzender des AI Advisory Boards.

Die Aufgabe des KI-Beirats ist es laut Gesetz, „die Politik in fachlichen, gesellschaftlichen und ethischen Fragen rund um das Thema Künstliche Intelligenz zu beraten“. Wie wird diese Beratung konkret ablaufen?
Horst Bischof: Der Beirat hat sich erst vor kurzem konstituiert, daher wurde noch kein Modus Operandi für die Beratung festgelegt. Der Beirat wird sich aber mindestens viermal im Jahr treffen und dann an konkreten Fragestellungen arbeiten, wie dem europäischen AI Act oder der österreichischen AI-Strategie. An Fragen wird es aufgrund der Dynamik des Feldes nicht mangeln.

Im KI-Beirat sind Expertinnen und Experten aus den Bereichen Technik, Recht, Wirtschaft und Sozialwissenschaft. Bei welchen Fragen erwarten Sie die größten Unterschiede zwischen Positionen der einzelnen Beiratsmitglieder?
Bischof: Der Beirat ist ja bewusst sehr divers zusammengesetzt, damit wird der Diskurs und die unterschiedlichen Sichtweisen ermöglicht. Gerade bei so komplexen Problemstellungen ist das unbedingt erforderlich. Ein spannendes Thema ist sicherlich Regulierung versus Nutzung der Chancen der Technologie. Ein anderes Thema ist, wie ein so dynamischer Bereich überhaupt reguliert werden kann.

Künstliche Intelligenz birgt Chancen und Risiken für unsere Gesellschaft. In welchen Bereichen sehen Sie das größte Potenzial für einen positiven Beitrag der KI?
Bischof: In einigen Bereichen ist bereits eine enorme Produktivitätssteigerung zu verzeichnen. Zum Beispiel gibt es Studien, die zeigen, dass professionelle Programmiererinnen und Programmierer etwa um den Faktor zwei schneller arbeiten können. Das heißt, wir können potenziell unseren Programmierermangel durch AI-Technologien beheben. Generell glaube ich, dass AI-Technologien in Zukunft unsere Schnittstelle zu digitalen Systemen sein werden und als Assistenzsystem eingesetzt werden.

Hinweis

Weitere Informationen zur bundesweiten KI-Offensive und -Strategie finden Sie unter den nachfolgenden Links:

In welchen Bereichen muss die Politik potenzielle gesellschaftliche Risiken von KI-Technologien am ehesten eindämmen oder kontrollieren?
Bischof: Ein großes Gefahrenpotenzial sehe ich im Bereich der Medien – Stichwort Fake News. Hier steht vor allem die Beeinflussung der öffentlichen Meinung im Raum. Aber auch im Bereich Überwachung sehe ich mögliche negative Auswirkungen. Der AI Act listet explizit Hochrisikosysteme auf, die explizit verboten werden sollen.

Hinweis

Über das Forschungsprojekt defalsif-AI, ein technisches Hilfsmittel zur Bekämpfung von Fake News, erzählt im Interview Martin Boyer vom AIT (Austrian Institute of Technology):

Über spezifische Cyberbedrohungen im Zusammenhang mit KI informiert Sie Ross King, Leiter der Abteilung Data Science und Artificial Intelligence (AIT):

Wie wird durch den AI Act, also die KI-Verordnung der EU, sichergestellt, dass Grundrechte und Sicherheit der EU-Bürgerinnen und EU-Bürger respektiert werden?
Bischof: Der AI Act verfolgt einen risikobasierten Ansatz. AI-Systeme werden in vier Risikostufen eingeteilt, von minimal bis inakzeptabel. Wichtig ist, dass der Schwerpunkt auf einer vertrauenswürdigen – auf Englisch trustworthy – AI liegt. Ein System wird als vertrauenswürdig bezeichnet, wenn es transparent, verlässlich, fair, rechenschaftspflichtig und datenschutzkonform ist.

Was ist das größte Missverständnis rund um KI, das in der Öffentlichkeit herumschwirrt und das Sie gerne aufklären würden?
Bischof: Es sind viele. Zunächst: Das Thema ist nicht neu. Erste Ansätze gab es bereits 1956 bei der Dartmouth-Konferenz. Dann ist die Übersetzung des englischen Wortes „Intelligence“ nicht Intelligenz – deshalb verwende ich den englischen Begriff AI und nicht KI. Denken Sie etwa an die CIA: „Intelligence“ beinhaltet den Aspekt des Datensammelns und -verarbeitens, was viel mehr den heutigen AI-Systemen entspricht als die Vorstellung eines „denkenden Wesens“. Und gerade in letzter Zeit: Nicht überall, wo AI draufsteht, ist auch AI drin. In vielen Fällen handelt es sich einfach um Optimierungsmethoden, die sich aber mit dem Label AI besser verkaufen lassen. Es gibt hier also das Phänomen des AI-Washings.

Hinweis

Über die Grundlagen der künstlichen Intelligenz informiert Sie der Beitrag „KI-Basiswissen: Grundlagen der KI einfach erklärt“.

Eine Umfrage von Statistik Austria hat ergeben, dass elf Prozent der österreichischen Unternehmen KI-gestützte Technologien im Einsatz haben. Wie sehen Ihre Prognosen für die nächsten zehn Jahre aus?Bischof: Meine Prognose geht in Richtung 80 bis 90 Prozent, da sich die AI, wie ich bereits oben erwähnt habe, mehr und mehr als Schnittstelle zur digitalen Welt etablieren wird.

Eine persönliche Frage: Wie wenden Sie in Ihrem beruflichen Alltag KI-Tools an? Und wie zufrieden sind Sie mit der Leistungsfähigkeit dieser Tools?
Bischof: Natürlich benutze ich diese Systeme. DeepL Write erlaubt mir, Texte viel schneller zu schreiben. DeepL Translate liefert erstaunlich gute Übersetzungen. Dall-E verwende ich gerne, um Bilder für eine Einstiegsfolie für Vorträge über AI zu generieren. Kürzlich habe ich mir einen Avatar erstellen lassen, der für mich Vorträge halten kann, und das in vielen verschiedenen Sprachen, das erspart mir den Weg ins Videostudio.

Hinweis

Wie AI-Sprachmodelle und -Bildgeneratoren funktionieren, und wie Sie diese sicher nutzen können, lesen Sie in den folgenden Beiträgen:

Letzte Aktualisierung: 3. April 2024

Für den Inhalt verantwortlich: A-SIT Zentrum für sichere Informationstechnologie – Austria