News
Stop für ChatGPT? Politische Intelligenz regelt die Künstliche
Italien verbietet kurzfristig ChatGPT – und Österreich? Künstliche Intelligenz braucht Regulierung, also einen rechtlichen und gesellschaftlichen Rahmen, sagt Digitalisierungs-Staatssekretär Florian Tursky. Verbote von Innovationen würde hingegen nicht zur gewünschten Transparenz führen.
Leck bei ChatGPT in Italien
Der für Digitalisierung zuständige, im Finanzressort angesiedelte Staatssekretär reagiert damit auf eine einstweilige Entscheidung in Italien, nach einem Datenleck von ChatGPT dessen Nutzung zu untersagen. Das Leck hatte Nutzer- und Kreditkartendaten einsehbar gemacht.
Das ChatGPT-betreibende US-Unternehmen OpenAI hat 20 Tage Zeit, um Italiens Datenschutzbehörde über ergriffene Maßnahme zu informieren. Bei Mängeln oder Verstößen drohen Strafen von bis zu 20 Mio. Euro oder bis zu vier Prozent des Umsatzes, heißt es in einer Information des Staatssekretariats.
Internationale Experten fordern eine Arbeitspause an Künstlicher Intelligenz und an den digitalen Sprachmodellen, was auch vom US-Unternehmer Elon Musk (E-Autos Tesla) unterstützt wird.
Verbote führen nicht zu Transparenz
Die Künstliche Intelligenz läutet ein neues Internetzeitalter ein, sagt Tursky. Und ergänzt aus aktuellem Anlass: „Ich bin der Meinung, dass Verbote von Innovationen noch nie zum gewünschten Erfolg geführt haben, nämlich mehr Transparenz und Sicherheit für die Nutzer.“
Was ist also zu tun? Tursky dazu in einem Medien-Statement: „Was wir daher brauchen, ist eine gute Regulierung, dadurch muss das Vertrauen in die Technologien gestärkt werden. Hier ist die Politik gefordert: KIs raus aus der Blackbox zu bringen und sie gemäß unserer europäischen Werte zu nutzen.“
Künstliche Intelligenz sei eine Revolution und habe viele positive Effekte, von vertieften Datenanalysen bis zu verbesserten Arbeitsabläufen. Die Investitionen in Künstliche Intelligenz steigen bis 2026 auf über 300 Milliarden Dollar jährlich an, die Leistungsfähigkeit der KI-Systeme verdoppelt sich nahezu vierteljährlich.
Vor diesem Hintergrund benötigt Künstliche Intelligenz (bzw. Artificial Intelligence, AI) „einen rechtlichen und gesellschaftlichen Rahmen“, erklärt Tursky unter Verweis auf den Entwurf für den AI Act auf europäischer Ebene.
Heikle Entscheidungen bleiben vorbehalten
Die 2021 präsentierte KI-Strategie der Bundesregierung wurde explizit als agile Strategie gestaltet, um sie vor dem Hintergrund sich rasch ändernder Entwicklungen in technologischer, rechtlicher und gesellschaftlicher Hinsicht weiterentwickeln zu können.
Heikle Entscheidungen, die unmittelbare und wesentliche Auswirkungen auf Menschen haben, dürfen nicht automatisiert durch Maschinen getroffen werden, sondern nur maschinell unterstützt.
Update der KI-Strategie
Für 2023 war und ist daher ein Update der Strategie der Bundesregierung für Künstliche Intelligenz vorgesehen, und zwar aus mehreren Gründen, wie Tursky erklärt:
Viele der darin formulierten Maßnahmen wurden bereits umgesetzt oder befinden sich laufend in Umsetzung. Der aktuelle Stand wird evaluiert um darauf aufbauend neue Aktivitäten zu setzen.
Die Einigung zum AI Act steht kurz bevor, der den rechtlichen Rahmen für die Entwicklung und Inbetriebnahme von KI maßgeblich verändern wird – darauf muss auch mit konkreten Maßnahmen reagiert werden.
Die rasante technologische Entwicklung im Bereich KI (vor allem bei generativer KI) bringt neue Herausforderungen – und auch Chancen mit sich, denen wir uns als Politik stellen und geeignete Antworten liefern müssen.
Der Nationalrat forderte vorige Woche den Sozial- und den Finanzminister dazu auf, in einer Studie untersuchen zu lassen, welche Auswirkungen ChatGPT auf das Konsumverhalten haben könnte.