Go ahead | Noch nicht das letzte Wort

Go ahead | Noch nicht das letzte Wort

Magazin 02/23

Mitte Juni hat das Europaparlament einen ersten Entwurf für die Regulierung von künstlicher Intelligenz in Europa vorgelegt, den sogenannten AI Act.

„KI kann nicht werten, aber wir Menschen“, sagt Feiler.

Was wird der AI Act konkret regeln?

Der AI Act unterscheidet verschiedene Arten von KI und klassifiziert diese nach ihrem Risiko. Hochrisikosysteme etwa benötigen demnach eine Konformitätserklärung, damit sie eingesetzt werden dürfen.

Das heißt, die Unternehmen müssen diese erstellen und werden überprüft?

So ist es. Allerdings ist noch nicht geklärt, wer die Konformitätsüberprüfung übernehmen wird. Das könnte etwa die Datenschutzbehörde sein. Allerdings ist das nur dann sinnvoll, wenn diese personell entsprechend aufgestockt wird.

Bringt der AI Act mehr Sicherheit oder einen Wettbewerbsnachteil für Europa?

Es muss uns klar sein, dass Regulierung selten einen Wettbewerbsvorteil bringt. Wenn der sogenannte Time-to-Market, also die Zeitspanne, bis ich ein Produkt auf den Markt bringen kann, in der EU deutlich länger ist als in anderen Ländern, dann ist das ein Nachteil für den europäischen Markt.

Die Konformitätserklärung und -prüfung betrifft nur die Produkteinführung. Was passiert, wenn die KI Fehler macht?

Der AI Act regelt diese zivil- und strafrechtlichen Aspekte gar nicht. Für diese Fälle gibt es die AI Liability Directive, die Klagen gegen KI Betreiber und Hersteller erleichtert, etwa durch eine Beweislastumkehr. Wenn KI einen Fehler produziert, müssen die Betroffenen nicht beweisen, dass der Fehler auf ein unzureichendes Training der KI zurückzuführen ist, sondern umgekehrt die Unternehmen das Gegenteil.

Könnte diese Beweislastumkehr nicht auch ein Hemmschuh bei der Einführung von KI sein?

Das Problem bei den aktuellen KI Regulierungen ist, dass wir von einem Compliance Risiko ausgehen und die eigentliche Opportunität aus den Augen verlieren. Wenn KI zu einem Haftungsrisiko für Unternehmen wird, dann ist die Wahrscheinlichkeit hoch, dass KI nicht eingesetzt wird, auch wenn sie effizienter und genauer arbeitet als wir Menschen. Wir sollten uns überlegen, wie die neuen Technologien in Entscheidungsprozessen nutzen können, um etwa Diskriminierung entgegenzuwirken.

Aber es ist ein Fakt, dass KI die aktuellen Machtverhältnisse repliziert – wie soll dann Diskriminierung ausgeschaltet werden?

KI kann Fakten nicht werten, sondern arbeitet auf Basis von Wahrscheinlichkeiten. Aber wir Menschen können das. Wir Menschen sind dafür verantwortlich, wie wir KI einsetzen.

Wie gut stehen die Chancen, dass Überlegungen wie diese noch in den AI Act einfließen?

Es ist zu hoffen, dass die kritischen Stimmen gehört werden. Regulierung ist nur dann gut, wenn sie tatsächlich einen gesellschaftlichen oder wirtschaftlichen Mehrwert hat und nicht überbordende Administration zur Folge hat.

Lukas Feiler

Lukas Feiler ist Partner bei Baker McKenzie Wien.

Weitere Beiträge zur Kategorie

Young Stars | Hobby: KI

Drei Schüler:innen der HTL Spengergasse Wien gewannen beim Hackathon 2023 und setzten sich mit ihrer Applikation für Pfandflaschen gegen Studierende von Universitäten und Fachhochschulen durch.

2023-09-15T09:49:20+02:0013. September 2023|

Diesen Beitrag teilen:

Titel

Nach oben