ACHTUNG: KI-Nutzung aus rechtlicher Sicht
6 Mai, 2024 | Aktuell Interviews Nicht kategorisiert
Mittlerweile sind KI-Tools wie ChatGPT oder Microsoft Copilot den meisten bekannt und finden Verwendung an vielen Arbeitsplätzen. Dabei darf der Datenschutz nicht ausser Acht gelassen werden. Die EU hat Mitte März 2024 den AI Act (KI-Gesetz) verabschiedet, wonach gewisse KI-Anwendungen verboten werden sollen.
thebroker im Interview mit David Rosenthal, einem der schweizweit führenden Experten für Daten- und Technologie-Recht. Er ist Team Head/Partner bei VISCHER AG.
David Rosenthal, Sie sprechen verschiedene Sprachen, darunter auch Chinesisch. Wie kam es dazu?
(Lacht) Sie verwechseln mich mit meinem digitalen Zwilling, ein mit KI generierter Avatar von mir. Der kann noch viel mehr Sprachen, aber sein Französisch hat angeblich einen afrikanischen Akzent. Ich kann das selbst gar nicht so beurteilen. Ich bin nicht begabt in Sprachen. Aber ich bin der Meinung, dass ich das, wozu ich berate, auch aus eigener Anschauung kennen sollte. Darum habe ich mir einen eigenen Avatar zugelegt. Ich habe aber auch schon welche für Kunden gemacht. Ein solcher Avatar ist nämlich sehr praktisch für Erklär- und Schulungsvideos. Aber ich hatte zunächst schon ein mulmiges Gefühl, als ich sah, wie einfach sich so etwas erstellen lässt – und potenziell auch missbrauchen.
Wie sieht es mit dem Datenschutz bei der Verwendung von KI-Tools wie ChatGPT und Microsoft Copilot aus?
Das ist ein schwieriges Thema. Zunächst einmal gibt es gleich eine ganze Reihe von Varianten dieser Tools mit unterschiedlichen Verträgen. Einige erfüllen die Anforderungen für Geschäftskunden, andere überhaupt nicht. Und sie ändern sich immer wieder. Die Transparenz ist in diesem Markt also noch nicht sehr hoch. Wir haben vor einigen Monaten mal eine Übersicht gemacht über die Angebote von OpenAI und Microsoft; die Leute haben uns das aus den Händen gerissen. Die gute Nachricht ist aber, dass sich KI datenschutzkonform betreiben lässt. Wir nutzen bei uns intern eine direkte Schnittstelle auf die Sprachmodelle von OpenAI und haben das auch für Personendaten freigegeben. Das kostet auch nicht viel.
Gibt es Unterschiede bei der Verwendung von Gratis- oder Bezahl-Versionen?
Die kostenlosen Versionen sollten in Unternehmen nur mit Prompts und Informationen gefüttert werden, die keine Daten über andere Personen enthalten, keine Kundendaten und keine eigenen Geschäftsgeheimnisse. Dann sind sie ok. Bei den Bezahl-Versionen kann ein Unternehmen im optimalen Fall einen Vertrag und weitere Zusagen erhalten, die dann auch mehr ermöglichen. Mit Zusagen meine ich zum Beispiel, dass die Inputs und Outputs der KI nicht für Trainingszwecke vom Provider zweitverwertet werden. Das ist für die meisten Unternehmen verständlicherweise ein No-Go. Kürzlich haben wir eine KI-Checkliste für Provider-Verträge gemacht. Mit dem Prüfen wir jetzt für unsere Kunden die Verträge von allerlei Anbietern.
Muss das Datenschutzgesetz eingehalten werden?
Oh ja, natürlich, wie immer, wenn wir im Unternehmen Daten über andere Menschen bearbeiten. Es gelten bei der KI im Grunde keine neuen Regeln, und das Bauchgefühl ist meist ein guter Ratgeber. Wir alle wissen zum Beispiel, dass eine KI falsche oder einseitige Antworten produzieren kann, und wir wissen im Grunde auch, dass wir solche Antworten nicht unkontrolliert verwenden dürfen. Der Datenschutz verlangt das auch, wenn es dabei um Daten über andere geht. Manchmal ist die Abgrenzung schwieriger. Wenn wir zum Beispiel das CV eines Stellenbewerbers mit einer KI prüfen lassen: Müssen wir ihm das sagen? Viele finden inzwischen Nein, weil es irgendwie klar ist, dass Unternehmen das tun, aber es gibt auch andere Ansichten. Auch sagt der Datenschutz: Wenn es für jemanden wichtig ist zu wissen, was wir mit seinen oder ihren Daten machen, dann muss das transparent gemacht werden. Und wenn ich die KI die Stellenbewerberinnen und Stellenbewerber automatisch aussortieren lasse, dann findet eine Mehrheit, das so etwas in jedem Fall transparent zu machen ist und die Person mit einem Mensch sprechen können muss. Das sagt auch das Datenschutzgesetz. Weniger klar ist es aber schliesslich bei der Frage, ob deren Daten für ein Training der KI benutzt werden darf. Hier raten wir den Unternehmen zum Beispiel, diese Dinge einfach in ihre Datenschutzerklärung zu schreiben, dann haben sie immerhin etwas. Datenschutzrecht ist oft keine präzise Wissenschaft.
Welche Regeln werden beim Einsatz von KI in Unternehmen benötigt?
Wir raten Unternehmen drei Dinge zu tun: Erstens sollen Sie für jede KI-Anwendung eine Person bestimmen, die verantwortlich für den Datenschutz und die weiteren rechtlichen Vorgaben ist. Das ist normalerweise jene Person, die über die Anwendung auch sonst entscheidet. Zweitens sollte den Mitarbeitenden gesagt werden, wie sie sich zu verhalten haben, also etwa welche Tools sie mit welchen Daten nutzen dürfen, welche nicht, wem Zwischenfälle zu melden sind und welche Verhaltensregeln von ihnen erwartet wird. Das ganze am besten verbunden mit einer Schulung. Drittens sollte ein Unternehmen nicht einfach einen Wildwuchs an Tools und Anwendungen erlauben, sondern jeden Einsatz auf seine Risiken prüfen, sich überlegen, wie diese allenfalls minimiert werden können und den Überblick behalten, was im Betrieb an KI gemacht wird. Wer das mal durchspielen will, kann sich GAIRA Light anschauen. Das ist ein von uns entwickeltes Tool, das wir als Open Source frei zugänglich gemacht haben. Hilft gleichzeitig bei der Datenschutz-Compliance.
Wird der AI Act auch für die Schweiz gültig sein?
Ja, wird er, aber nur unter bestimmten Umständen. Anbieterseitig gilt er in der Schweiz grundsätzlich für alle, die KI-Systeme auf den EU-Markt bringen, dort vertreiben oder dort einsetzen. Nutzerseitig gilt er in der Schweiz grundsätzlich immer dann, wenn ein KI-System einen Output produziert, der auch in der EU genutzt werden soll. Also wenn jemand einen Chatbot auch für Leute aus der EU betreibt oder mit KI generierte Texte an Personen in der EU sendet. Noch nicht klar ist, ob wir in der Schweiz auch so etwas wie den AI Act bekommen werden, aber ich glaube eher nicht. Der Bundesrat will Ende Jahr berichten, was er für die Schweiz in dieser Hinsicht für notwendig hält.
Welche KI-Anwendungen sollen verboten werden?
Nicht viele. Eigentlich geht es beim AI Act um Produktesicherheit. Kritische KI-Systeme sollen bestimmte Anforderungen erfüllen, so wie andere kritische Produkte wie Herzschrittmacher, Personenaufzüge oder Spielsachen auch. Der AI Act will den Einsatz von KI nicht generell regeln. Für normale KI-Systeme hat er nur ganz wenige Regeln. Und er verbietet nur einige wenige Anwendungen. Zum Beispiel wenn ein Arbeitgeber KI dazu benutzen will, um die Gemütsverfassung seiner Mitarbeitenden festzustellen. Auf Müdigkeit darf er prüfen, das dient ja dem Gesundheitsschutz, aber die KI anhand irgendwelcher Daten herausfinden lassen, ob ein Mitarbeitender sauer auf den Chef oder die Chefin ist, das geht nicht. Bei Kunden dürfen Unternehmen solches hingegen tun, und das machen immer mehr Firmen ja auch. Social Scoring, wie es beispielsweise in China betrieben wird, ist auch eine verbotene Praktik. Es geht also nicht nur um Dinge, die private Unternehmen tun, sondern auch staatliche KI-Anwendungen werden eingeschränkt. Jedenfalls in der EU.
Welche Konsequenzen wird der EU AI Act für Unternehmen haben?
Jeder, der ein KI-gestütztes Produkt auf den Markt bringen will, wird sich damit befassen müssen. Ausser, er möchte das nur ausserhalb der EU tun, aber das wird kaum vorkommen. Darum rechne ich damit, dass der AI Act eine Art «Weltstandard» werden wird für jene KI-Produkte, die er erfasst. Das ist wie gesagt nur ein kleiner Teil des Sortiments. Es macht die Sache für die betreffenden Anbieter aber sehr viel aufwändiger, wenn sie erst einmal in diesem Bereich sind. Dieser Bereich umfasst vor allem jene KI-Anwendungen, die als «hoch kritisch» festgelegt worden sind wie etwa das von mir genannte Beispiel der Analyse von CVs von Bewerbern. Vor allem Startups werden damit zu kämpfen haben. Und der AI Act ist ja bei weitem nicht das einzige Gesetz, das einzuhalten ist. Ich finde die Flut an Regulierung speziell aus der EU nicht gut, aber sie ist eine Realität. Die Nutzerseite von KI in der Schweiz wird der AI Act zum Glück nur mässig treffen. Bleibt zu hoffen, dass sie von höherer Qualität und Sicherheit in den Produkten mitprofitiert, auch wenn wir nicht in der EU sind.
Kann der Einsatz von KI überhaupt durch Regeln und Verbote reguliert werden?
Sicher geht das. Unternehmen werden sich daran halten wollen, oder es zumindest versuchen. Die grossen ganz sicher. Sonst drohen Verfahren. Bei den Anwendern, speziell ausserhalb der EU, wird das wohl weniger stark der Fall sein. Aber die FINMA erwartet zum Beispiel von regulierten Instituten, dass sie sich dort, wo der AI Act anwendbar ist, an ihn halten. Er wird sicher auch positive Dinge bewirken. Aber zu welchem Preis? Wir Berater werden profitieren, aber all die Probleme der KI wird er nicht lösen können. Der Gesetzgeber weiss auch gar nicht, wie diese Lösungen wirklich aussehen. Er stellt zwar ganz viele Anforderungen auf, was KI-Systeme haben müssen oder nicht tun dürfen, aber fast alles davon sind Schlagworte, mit welchem er die heisse Kartoffel einfach den Anbietern zuschiebt. So im Sinne: Löst das mal, sonst gibt es eine Busse. Und manche der wichtigen Themen geht er gar nicht an, wie zum Beispiel das Problem, dass die Entwicklung von leistungsfähigen KI-Modellen immer mehr Daten und Ressourcen erfordern, die immer weniger Player im Markt aufbringen können. Das wird zu Oligopolen und neuen Abhängigkeiten mit all ihren Auswirkungen führen.
Wer wird in Zukunft für die KI-Governance in Unternehmen zuständig sein, wird es AI-Officer geben oder geben müssen?
Die Unternehmensleitung. Die Oberverantwortung hat im Schweizer Recht der VR. Er wird das dann zwar an die GL delegieren, muss aber beaufsichtigen, ob und wie die Compliance umgesetzt. Wir empfehlen, dass Unternehmen zwischen denen zu trennen, die KI fürs Geschäft betreiben und darüber entscheiden, und denjenigen, die intern beraten, welche Regeln zu erfüllen sind und deren Einhaltung überwachen. Einen AI Officer im Sinne einer eigenen Legal-Stelle, die sich mit KI befasst, also wie beim Data Protection Officer, braucht es nicht. Manche grösseren Unternehmen haben einen AI Officer, aber der hat eigentlich nichts mit Compliance zu tun, sondern die Aufgabe, den Einsatz von KI voranzutreiben. Haben wir es mit einer kleineren Unternehmung zu tun, wird sich meist der- oder diejenige, die sich bisher um den Datenschutz gekümmert hat, auch um das KI-Thema kümmern, und die GL entscheidet dann, welche Risiken eingegangen werden, welche Tools zum Einsatz kommen und was die Mitarbeitenden machen dürfen.
Dürfen urheberrechtlich geschützte Werke für das Training von KI-Modellen genutzt werden?
Hier muss ich die Standardantwort aller Juristen geben: Es kommt darauf an. Erstens auf das Land, zweitens darauf, wer zu welchem Zweck trainiert und drittens wie und unter welchen Bedingungen die Inhalte zugänglich gemacht worden sind. Die übliche Praxis ist, dass alles, was irgendwie öffentlich zugänglich ist, genutzt wird, aber öffentlich zugänglich heisst nicht einfach frei nutzbar, weshalb es bereits erste Gerichtsverfahren zur Klärung der Grenzen des Urheberrechts gibt. Auch OpenAI ist schon mehrfach eingeklagt. Im Urheberrecht gibt es vereinfacht gesagt die Regel, dass der Inhaber der Rechte an einem Werk bestimmen darf, was damit getan wird, ich also seine Einwilligung brauche – oder aber das Recht sieht eine Ausnahme vor. Ich brauche also die Erlaubnis – vom Rechteinhaber oder dem Gesetzgeber. Wir diskutieren nun über Fragen wie ob die Veröffentlichung implizit diese Erlaubnis umfasst oder ob bestimmte, im Gesetz vorgesehene, Erlaubnisfälle greifen. Einer ist zum Beispiel das Recht, von veröffentlichten Werken Kopien zur betriebsinternen Information zu machen. Forscher haben auch eigene Ausnahmen. Und dann gibt es noch Argumente, wie dass das Training eines Computers gar nichts braucht, zum Beispiel weil das sei, wie wenn ein Mensch einen Text liest – dafür ist auch keine Erlaubnis nötig. Oder es wird genau das Gegenteil vertreten, weil das Training eines Computers gerade nicht darauf abzielt, dass das Werk weiterverwendet wird. Viele spannende Diskussionen in der Rechtslehre also.
Welche Konsequenzen sind zu erwarten, wenn solche Werke verwendet werden?
Meine nüchtern-pragmatische Einschätzung: Nicht viele. Natürlich können wir juristisch zum Ergebnis kommen, dass eine Firma durch das Training ihrer KI das Urheberrecht verletzt hat und daher zu Schadenersatz verpflichtet ist oder die Verantwortlichen sogar strafrechtlich gebüsst werden können. Das kann und wird sicherlich auch passieren. In den USA dürften die Klagen gegen OpenAI, Microsoft und Konsorten womöglich zu Vergleich mit hohen Summen führen. Aber das Rad der Zeit lässt sich nicht zurückdrehen, und es gibt ein grosses gesellschaftliches Bedürfnis daran, dass wir KI-Modelle mit dem Wissen unserer Welt füttern – und das steckt nun einmal in Büchern, Zeitungsartikeln, Youtube-Videos, Online-Plattformen und so weiter. Ich bin überzeugt, dass dort, wo wir Spielraum zur Interpretation des Rechts haben, um solche Entwicklungen zu ermöglichen, sie ultimativ auch genutzt werden. Schlimmstenfalls wird das Recht angepasst, aber das ist meist gar nicht nötig. Und oft geht es letztlich nur ums Geld und das Finden einer Balance. Heute werden Youtube & Co. als Quelle für KI-Trainings genutzt. Aber auch Plattformen wie Youtube wurden nur so gross und beliebt, weil die Leute beliebige Videos – Urheberrechte hin oder her – auf diese Plattformen laden konnten. Die Betreiber haben dann im Hintergrund Mittel und Wege gefunden, wie sie Rechteinhaber besänftigen und an ihren Gewinnen aus dem Geschäft haben teilhaben lassen. Das ist die Makrosicht. Ein einzelnes Unternehmen muss freilich trotzdem jeweils abgeklärt werden, was mit welchen Daten wie gemacht werden darf. Das ist dann unser Job. Oft haben Unternehmen sich ja sogar vertraglich verpflichtet, was sie mit welchen Daten machen dürfen, zum Beispiel den Daten ihrer Kunden. Da würde ich schon empfehlen genau, hinzuschauen und abzuklären, was geht.
Unter welchen Bedingungen dürfen sie genutzt werden?
Wenn ein Unternehmen Daten seiner Kunden für das Training einer KI nutzen will, dann ist es am besten, wenn es dies in den Verträgen so vorsieht und in jedem Fall nicht ausschliesst. Manche Geheimhaltungsklauseln in Verträgen enthalten zum Beispiel nicht nur die Regel, dass Daten der anderen Vertragspartei geheim zu halten sind, sondern auch, dass sie nicht für andere Zwecke als den Vertrag benutzt werden dürfen. Dann dürfen die Daten an sich nicht für Trainings benutzt werden, die nicht dem Vertrag dienen. Sollen für das Training auch Daten benutzt werden, die sich auf einzelne, identifizierbare Menschen beziehen, dann sollte dies zusätzlich in der Datenschutzerklärung als Verwendungszweck vermerkt sein. Der umgekehrte Fall, dass ein KI-Tool benutzt wird, und es spuckt quasi ein urheberrechtlich geschütztes Werk eines Dritten aus, das dann deswegen nicht verwendet werden darf, ist hingegen nach unserer Erfahrung sehr selten, ausser jemand legt es genau darauf an und trickst zum Beispiel die Filter und Sperren aus, mit denen das bei vielen KI-Dienstleistern heute verhindert werden soll. Zudem gibt es verschiedene Strategien beispielsweise beim Prompting, wie dieses Risiko einer Urheberrechtsverletzung gesenkt werden kann. Mit anderen Worten: Am Ende geht es darum, dass wir lernen mit diesen für viele neuen technischen Möglichkeiten von KI umzugehen, wie wir das einst auch beim Internet lernen mussten. Heute ist das Internet völlig normal und die Leute kommen gut zurecht damit.
David Rosenthal studierte Jura an der Universität Basel in der Schweiz, hat aber ebenso einen Hintergrund als Softwareentwickler. Er ist seit über 25 Jahren im Daten- und Technologierecht tätig und aufgrund seiner Arbeit, seinen Werkzeugen und Publikationen weit über die Schweiz hinaus bekannt. Heute ist er Partner der Schweizer Wirtschaftskanzlei VISCHER, wo er unter anderem den Bereich Datenrecht leitet. Er ist Lehrbeauftragter an der Eidg. Technischen Hochschule ETH in Zürich und an der Universität Basel. www.rosenthal.ch
Lesen Sie auch: Versicherungsunternehmen: Wie KI das Marketing transformiert