Vertrauenswürdige KI - USA und UK verzichten
Bild: Ideogram
Auf dem kürzlich stattgefundenen AI Action Summit in Paris trafen sich 60 Staatsvertreter bezüglich zentraler Fragen einer global gestalteten KI-Governance mit Fokus auf einer ethischen und inklusiven Entwicklung von künstlicher Intelligenz. Während 58 der Anwesenden Parteien, darunter auch Länder, wie China, Indien oder die Afrikanische Union ihre Unterschrift für diese Bestimmungen setzen, verweigerten die USA und Großbritannien deren Unterschrift aus Gründen der Innovationseinschränkung aufgrund von Überregulierung und Bedenken zum eigenen Staatsschutz.
Die USA ist gegen einschränkende Regelungen
Die USA betonen in einer Äußerung, dass strenge Regularien für künstliche Intelligenz Innovation und globale Wettbewerbsfähigkeit behindere. Vice President JD Vance kritisiert am Paris AI Action Summit das Regulationswerk der EU in Form des AI-Acts und verweist auf die schon bestehende Belastung durch die DSGVO und dem EU Digital Service Act, der besonders für kleine Unternehmen eine Hürde darstellt. Er betont die Wichtigkeit von freier KI ohne ideologischen Bias und lehnt die Moderation von Inhalten mit Regularien strikt ab.
Diese Verhaltensweise ist im Einklang mit der durch US-Präsident Trumps geführten Regierung unter dem Motto „America First", in dem eine wachstumsorientierte Sichtweise zur KI über Anpassungen zu internationalen Regularien steht. Ebenfalls lehnt die USA die Unterzeichnung der Bestimmungen zur inklusiven KI ab mit Bedenken zur nationalen Sicherheit und einem Mangel an praktischen Regierungsmaßnahmen.
Großbritannien sorgt sich um die eigene Staatssicherheit
Großbritannien lehnt eine Unterzeichnung im Zuge des Paris AI Action Summits ab, da sie laut eigenen Angaben die nationale Sicherheit priorisiert und Bedenken der Regularien in Bezug auf eine adäquate Adressierung von kritischen Risiken hat. Von Regierungssprechern wird betont, dass die Dokumente einen Mangel an praktischer Klarheit zur Globalen Regulierung hat und komplexe nationale Sicherheitsmaßnahmen und Herausforderungen, wie die missbräuchliche Anwendung für Cyber-Attacken und Biowaffen fehlt zu adressieren.
Dabei legt Großbritannien einen Fokus auf deren National Security and Investment Act von 2021, welcher ein strenges Monitoring von KI-basierten Aktivitäten einfordert. KI ist dadurch als Hochrisikosektor klassifiziert, vor allem durch dessen potentielle Verwendung mit negativer Absicht, inklusive militärischer Anwendungen. Es gibt jedoch, aufgrund der breiten Definitionen, Kritik an der Regulierung und Druck aus der Gesellschaft, diese zu überarbeiten. Dieses vorsichtige Handeln zeigt Großbritanniens Standpunkt als Innovationstreiber, aber dennoch Sicherheitsbewusst in strategisch relevanten Thematiken.
Warum ethische und vertrauenswürdige KI?
Ethische und vertrauenswürdige KI ist die Grundlage für weitgreifende Akzeptanz der Technologie und den verantwortungsbewussten Einsatz dieser. Durch das Einhalten von grundlegenden Werten können Schäden, vor allem unbeabsichtigte, vermieden werden. Im Zuge der High-Level-Expert Group on AI von der Europäischen Kommission wurden die drei Grundpfeiler für vertrauenswürdige und ethische KI festgelegt: Rechtmäßigkeit, ethische Grundsätze und technische sowie soziale Robustheit.
Aus unserer Perspektive ist vertrauenswürdige KI die Grundlage für einen nachhaltigen Einsatz, der einen positiven Effekt auf Individuen und Gesellschaft hat. Abgesehen von technischen Faktoren, wie Robustheit, Sicherheit oder den Schutz der Privatsphäre der Systeme sind Humanfaktoren, wie der Einklang mit menschlichem Handeln, Transparenz, Fairness im Einklang mit Rechenschaftspflicht und im Ganzen das gesellschaftliche Wohlergehen. Diese Grundziele in der Anwendung von KI-Systemen ermöglichen es Nutzern, auch hier in Österreich, KI Kompetent zu handeln. Das Wissen über und die technische Vorraussetzung von vertrauensvoller KI ermöglicht deren Einsatz nachhaltig und Zielführend für eine positive Entwicklung in der Gesellschaft.
KI-KOMPETENZ WORKSHOP
KI im Arbeitsalltag nutzen und sich vor Fakes schützen
Die Context-Verify Workshops bilden Sie und ihr Team optimal für die neue KI-Kompetenz-Verordnung aus. Profitieren Sie von unserem Fachwissen direkt aus der Entwicklungsbranche. Leicht verständlich, persönlich durchgeführt, vor Ort und digital.
Der Standpunkt der EU
Die EU und somit auch Österreich fördern eine innovative KI Entwicklung und haben gleichzeitig mit dem AI-Act die strengsten Regulierungen im globalen Kontext gesetzt. Am Paris AI Action Summit präsentiert die EU stolz die EU AI Champions Initiative mit dem Ziel Europa als KI-Leader zu etablieren. Hierbei arbeiten vor allem Regierungen der Mitgliedstaaten zusammen, um einen vereinfachten Rechtsrahmen zu schaffen, der lokale Innovation vorantreibt. Hauptpunkte der Bemühungen liegen in der:
Mobilisierung von Talent und Kapital zur Beschleunigung der KI-Adoption.
Vereinfachung des regulatorischen Umfelds, um Innovationen in Europa zu fördern.
Unterstützung europäischer Unternehmen durch ein stabiles Marktumfeld für KI-Technologien.
Schaffung einer starken KI-Infrastruktur, um die wirtschaftliche Wettbewerbsfähigkeit und technologische Souveränität Europas zu sichern.
Im Zuge dieser Initiative plant die EU insgesamt € 50 Milliarden in KI Programme zu investieren mit dem Hauptfokus auf Gigafabriken und Supercomputing Infrastruktur. In Kombination mit privaten Investments in Höhe von € 150 Milliarden soll eine globale kompetitive Partnerschaft für vertrauenswürdige Künstliche Intelligenz geschaffen werden.
Im Gegenzug dazu steht der AI-Act der EU, der von globalen Stimmen immer wieder als Überregulierung und Bremser der Innovation angesehen wird. Beispielsweise sind österreichische Unternehmen seit dem 02. Februar 2025 mit Bezug auf die Verpflichtungen des AI Acts damit beschäftigt, ihre Mitarbeiter in der Anwendung der künstlichen Intelligenz zu schulen.
Der AI Act der EU wird jedoch als Meilenstein in der globalen KI-Regulierung gesehen und stellt die EU als Vorreiter in der Entwicklung von vertrauenswürdiger KI dar. Das Ziel liegt darin, die Grundrechte der Menschen zu schützen und gleichzeitig Innovation zu fördern. Durch die risikobasierte Regulierung und Unterteilung von KI Systemen strebt die EU an, sich mit einer „KI made in Europe“ als Standort für KI im Rahmen von ethischen Grundsätzen und mit Minimierung von potentiellen Risiken zu positionieren.
Jorrit Kappel
Experte in den Bereichen künstliche Intelligenz, Medienkompetenz und Online-Gefahren mittels Fakes.
📧 info@context-verify.eu