B
Berichte / Rapports

Tagungsbericht zum AIPPI Swiss Day vom 20. Juni 2019

Peter Bigler​*

I. Einleitung

Das Thema des diesjährigen AIPPI Swiss Day, der im Anschluss an die Generalversammlung der AIPPI Schweiz am 20. Juni 2019 im Hotel St. Gotthard in Zürich stattfand, lautete «Artificial Intelligence – Exploitation through IP Rights». Der auf Englisch durchgeführte Anlass stiess beim Publikum – wie bereits der letztjährige Anlass zur Blockchain-Technologie – auf reges Interesse.

Die öffentliche Diskussion um künstliche Intelligenz bzw. «Artificial Intelligence» (kurz «AI») der letzten Monate hat gezeigt, dass mit der Technologie ein breites Spektrum von Hoffnungen, Erwartungen und Ängsten verbunden ist: Hoffnungen auf intelligente Computerprogramme, die Juristen Recherche und Redaktion von Rechtsschriften erleichtern oder sogar abnehmen, aber auch Ängste vor der «Wegautomatisierung» lukrativer Teile der Anwaltstätigkeit oder gar düstere Zukunftsszenarien über ausser Kon­trolle geratene künstliche Intelligenz. Das Programm des diesjährigen Swiss Day konzentrierte sich diesbezüglich auf die wirtschaftlichen Anwendungen künstlicher Intelligenz sowie deren ­Regelung und Verwertung mittels Immaterialgüterrechten.

Die Tagung wurde durch Dr. Lorenza Ferrari Hofer, Rechtsanwältin in Zürich und Präsidentin der AIPPI Schweiz, eröffnet. Sie begrüsste die Teilnehmer und übergab das Wort anschliessend an Dr. Reinhard Oertli, Rechtsanwalt in Zürich, der das dicht bepackte Programm vorstellte und durch die Veranstaltung führte.

II. Innovation and Business through Artificial ­Intelligence – an ­introduction for IP lawyers

Den Anfang machte Prof. Andrea Danani vom IDSIA Dalle Molle Institute for Artificial Intelligence​1Danani begann seine Präsentation mit dem Titel «Innovation and Business through Artificial Intelligence – an introduction for IP lawyers» mit einer kurzen Vorstellung seines Instituts. Dieses wurde 1988 durch den Unternehmer Angelo Dalle Molle ins Leben gerufen, der über eine Stiftung Forschung auf dem Gebiet der Computertechnologie förderte. Heute ist das Institut Teil der Fachhochschule der italienischen Schweiz​2 und widmet sich Themen wie Machine Learning, Deep Neural Networks und Data Mining. Im Anschluss daran erläuterte Danani den Anwesenden zunächst die Grundlagen und technischen Begriffe von Artificial Intelligence. Das ultimative Ziel seien Maschinen und Systeme, die nahtlos mit Menschen interagieren könnten, z. B. indem sie menschliche Sprache verstehen sowie aus eigener Erfahrung lernen und so ihre Aufgabenerfüllung verbessern könnten. Dafür seien jedoch riesige Mengen an Rechenleistung nötig. Waren solche früher ­ausschliesslich auf Supercomputern verfügbar, böten Privatcomputer und insbesondere auch tragbare Geräte wie Smartphones und Tablets seit ca. 2010 endlich auch ausreichend Leistung, um Programme mit künstlicher Intelligenz auch bei den Endanwendern laufen zu lassen. Dadurch sei es in den letzten Jahren zu massiven Fortschritten gekommen. Im Zentrum stehe dabei das sog. Machine Learning: Computer­programme bzw. deren Algorithmen hätten bis in die 1980er-Jahre in der Regel nur genau das gekonnt, was Programmierer vorgesehen hatten. Für komplexere Aufgaben wie z. B. die Bild­erkennung sei dies unzureichend, da nicht jede Eventualität vorhergesehen und programmiert werden könne. Beim Machine Learning würden deshalb ­grosse Datenmengen so strukturiert, dass sich daraus Modelle und aus diesen Modellen wiederum Vorhersagen ab­leiten liessen. Ein damit «trainierter» Algorithmus sei so in der Lage, aus den Datenmengen weitere Vorhersagen ­abzuleiten. Eine Steigerung hiervon sei das sogenannte Deep Learning, bei dem ein Netzwerk von Algorithmen (üb­licherweise als neuronales Netzwerk bezeichnet) selber Datenmengen strukturiere und aus eigenen Fehlern lerne. Der Referent präsentierte danach einige Beispiele: Den Anfang machte der «Long Short-Term Memory (LSTM)»-Algorithmus​3, der 1997 von Forschern des Instituts veröffentlicht wurde. Der heute weit verbreitete Algorithmus habe zahlreiche Anwendungen, darunter insb. die Bilderkennung. Er werde z. B. in der Medizin dazu eingesetzt, Bilder von Zellkulturen auf Krebszellen zu untersuchen. Die Erfolgsquote liege mit 80 bis 90% z. T. höher als diejenige von erfahrenen Ärzten. Dass jedoch auch solche Algorithmen z. T. an ihre Grenzen stossen können, zeigte Danani mit einem unterhaltsamen Beispiel, bei dem Bilder von Chihuahua-Hunden von denjenigen von Rosinen-Muffins unterschieden werden sollen. Was auf den ersten Blick selbstverständlich erscheint, erweist sich bei genauerer Betrachtung als Herausforderung, da Fell- und Teigfarbe je nach Foto fast identisch sind und im Muffin steckende Rosinen bei flüchtiger Betrachtung leicht für Augen gehalten werden können​4.

Danani präsentierte anschliessend eine Tour d’Horizon über die Projekte, an denen sein Institut beteiligt ist. Die Beispiele reichten von Flugsoftware für Drohnen, die mittels Flugvideos selbständig lernt, Hindernisse zu umfliegen, über die Optimierung von Arzneimittelzusammensetzungen und vir­tuelle Gesundheitsassistenten, die den Nutzern die wahrscheinlichsten Auswirkungen des eigenen Lebenswandels aufzeigen, bis hin zu Software für Armeen, die den Kommandierenden in unübersichtlichen Gefechtssituationen strategische Empfehlungen liefern soll.

Aus dem Publikum kam anschliessend die Frage, wie das Institut die Rechteverteilung an den zum Einsatz gelangenden Algorithmen bzw. deren Arbeitsergebnissen handhabt. Der Referent antwortete darauf, sein Institut behalte in der Regel die Rechte an der Software bzw. den Algorithmen, während deren Arbeitsergebnisse denjenigen Unternehmen gehörten, die die künstliche Intelligenz eingesetzt hätten.

Danani schloss sein Referat mit der Feststellung, künstliche Intelligenz sei nicht bloss ein kurzzeitiges Phä­nomen, sondern werde unseren Alltag nachhaltig verändern. Man müsse sich aber stets bewusst sein, dass das hinter künstlicher Intelligenz stehende ­Machine Learning lediglich ein «Handwerk» sei, keine unfehlbare Wissenschaft. Künstliche Intelligenz sei stets nur so gut wie die Daten, mit denen sie gefüttert worden sei. Deshalb sei es wichtig, dass der Mensch deren Entscheidprozesse bei Bedarf nachvollziehen könne, anstatt ihr blind zu vertrauen. Er sprach damit u. a. indirekt Probleme wie etwa der «Algorithmic Bias»​5 oder Fragen der Haftung für Fehler künstlicher Intelligenz an, die immer wieder Thema der öffentlichen Diskussion um künstliche Intelligenz sind.

III. AI and copyright / ­trademarks – the ­international and EU ­approach

Das zweite Referat der Tagung mit dem Thema «AI and copyright/trademarks – the international and EU approach» wurde durch Prof. Dr. Jan Bernd ­Nordemann, Rechtsanwalt in Berlin, Deutschland, präsentiert. Nordemann betonte dabei gleich zu Beginn, dass künstliche Intelligenz im Urheberrecht allgemein weit mehr Fragen aufwerfe als im Markenrecht. Zur Veranschau­lichung präsentierte er zwei Beispiele: Den Anfang machte Google Clip, eine (mittlerweile bereits wieder aus dem Vertrieb genommene) Weitwinkel­kamera, die z. B. an einer Party auf­gestellt werden kann und mithilfe künstlicher Intelligenz selber entscheidet, welche Motive eines Schnappschusses würdig sind. Als zweites Beispiel stellte Nordemann das Projekt «The next Rembrandt»​6 vor. Bei diesem lernte eine Software anhand detaillierter Scans der bedeutendsten Werke des niederländischen Malers Rembrandt, was ein typisches Porträt des Künstlers ausmacht, und erstellte anschliessend selber einen «neuen» Rembrandt. Bei beiden Beispielen stelle sich mangels (direkten) menschlichen Inputs un­weigerlich die Frage nach dem Schöpfer bzw. der Urheberin im Sinne des Urheberrechts.

Seine Präsentation gliederte Nordemann in vier Bereiche: (I.) das Rechtemanagement mithilfe künstlicher Intelligenz; (II.) den rechtlichen Schutz künstlicher Intelligenz; (III.) Werke und Arbeitsergebnisse, die durch künstliche Intelligenz geschaffen wurden, und (IV.) Rechtsverletzungen durch den Einsatz künstlicher Intelligenz.

Das Rechtemanagement mittels künstlicher Intelligenz werde, so die Prognose Nordemanns, die Anwalts­tätigkeit nachhaltig verändern. Gerade im Markenrecht würden Recherchetools bereits zunehmend «intelligenter», was Anwälten die Recherche und Beurteilung potenZieller Kennzeichenkonflikte erleichtere. «LegalTech»-Produkte wie z. B. Bilderkennungsdienste könnten Anwälten z. B. weiter dabei helfen, ­Urheberrechtsverstösse im Internet zu identifizieren und verfolgen.

Was den rechtlichen Schutz künstlicher Intelligenz bzw. deren Infrastruktur anbelange, gälten z. B. im Markenrecht die allgemein bekannten Regeln. Der urheberrechtliche Schutz biete dagegen einige bisher nicht gekannte Herausforderungen. So stelle sich z. B. die Frage, ob Software, die sich selbst verbessere, auch für die von ihr selbst geschaffenen Teile Urheberrechtsschutz beanspruchen könne. Ein weiterer ­Problemkreis betreffe die Daten, mit denen die fragliche künstliche Intelligenz ­trainiert worden sei. Hier existierten z. T. Spezialregelungen wie etwa die EU-Datenbankrichtlinie​7. Schliesslich müsse gefragt werden, wie das Ergebnis des «Trainings» der künstlichen Intelligenz geschützt werden könne, sei es als Software oder Datenbank.

Was den Schutz der Arbeitsergebnisse künstlicher Intelligenz anbelange, verwies Nordemann auf die beiden Eingangsbeispiele. Denn Urheberrechtsschutz setze in den meisten Ländern einen Urheber bzw. eine Schöpferin in Form einer natürlichen Person voraus​8. Genau diese Voraussetzung fehle aber im Falle künstlicher Intelligenz in der Regel. Interessant sei in diesem Zusammenhang die Formulierung im britischen Urheberrechtsgesetz​9. Dieses kenne für computergenerierte Werke eine Spezialregelung, die an die «nötigen Vorbereitungen» zur Schaffung des Werks anknüpfe und damit weiter gefasst sei als das reine Schöp­ferprinzip​10. Doch auch hier bedürfe es letztlich eines menschlichen Inputs.

Schliesslich komme es mit zunehmender Verbreitung künstlicher Intelligenz auch immer häufiger zu Situationen, in denen die fragliche Software selbst durch ihr Verhalten Rechte Dritter verletzen würde. Nordemann präsentierte auch hierzu verschiedene ­Beispiele aus der Praxis, die denkbare Verletzungen des Marken-, Lauterkeits- und Urheberrechts illustrieren: Das erste betraf einen Gerichtsfall aus dem Vereinigten Königreich. Der Versandhändler Amazon hatte, wenn der Nutzer auf dessen Website nach bestimmten Marken suchte, stattdessen Produkte von Drittanbietern bzw. eigene Produkte angeboten​11. Das «Keyword-Advertising» und die damit verbundenen (insb. markenrechtlichen) Probleme hängen zwar nicht primär mit dem Einsatz künstlicher Intelligenz zusammen. Der Referent warf hier aber die Frage auf, wie solche Fälle zu beurteilen wären, wenn z. B. eine virtuelle Assistentin wie Amazons Alexa selbständig eine Produkteauswahl trifft. Das zweite Beispiel stammte aus Deutschland und handelte von einer Software für Arztpraxen, die die vom Arzt eingegebenen Originalmedikamente selbständig durch entsprechende Parallelimport-Produkte ersetzte​12. Das OLG Hamburg erblickte in diesem Verhalten einen Verstoss gegen das Lauterkeitsrecht. Das dritte Beispiel zeigte schliesslich ein tragbares Hilfsgerät für sehbehinderte Personen. Dieses nutzt eingebaute ­Kameras sowie künstliche Intelligenz dazu, dem Träger die unmittelbare ­Umgebung zu beschreiben, darunter Objekte, Texte sowie Personen. Der Referent stellte hier die Frage in den Raum, ob solche Geräte, wenn sie z. B. in einem Museum urheberrechtlich geschützte Werke beschreiben oder vorlesen, in die entsprechenden Urheberrechte eingreifen. Die Beispiele des Referenten zeigten, dass künstliche Intelligenz grundsätzlich die gleichen Rechteverstösse begehen kann wie etwa natürliche Personen. Bei künstlicher Intelligenz kommen jedoch zusätzlich Fragen der Verhaltenszurechnung (z. B. zum Hersteller oder Endnutzer) hinzu.

Nordemann stimmte im Fazit seiner Präsentation Danani zu, dass künstliche Intelligenz die Welt nachhaltig verändern dürfte. Für Juristen könne die Technologie je nach Fachgebiet unterschiedliche Auswirkungen haben. Das Markenrecht an sich sei bereits weitgehend bereit für Anwendungen künstlicher Intelligenz. Die darin tätigen Anwälte könnten einerseits zwar auf neue und hilfreiche Arbeitswerkzeuge hoffen, es drohe andererseits aber auch ein Wegfall gewisser Tätigkeiten (und damit Einkommensquellen) aufgrund der erwarteten Automatisierung. Alles in allem werde aber auch mit künstlicher Intelligenz genügend Arbeit für Markenrechtsspezialisten bleiben. Auch die Verwaltung von Urheberrechten sowie insb. die Verfolgung von Urheberrechtsverletzungen dürften von der Unterstützung durch künstliche Intelligenz profitieren. Das Urheberrecht selber hinke den neuesten technischen Entwicklungen aber hinterher und werde entsprechend Lösungen für die sich stellenden neuartigen Probleme wie die Rechte an von künstlicher Intelligenz generierten Inhalten finden müssen. Der Referent schloss sein ausgezeichnetes Referat mit einer Aussage des US-amerikanischen Musikers William Adams (auch bekannt unter seinem Künstlernamen will.i.am). Dieser vergleicht den Stand künstlicher Intelligenz heute mit demjenigen des Internets 1987. Adams meint, damals hätte sich niemand erträumen lassen, welchen Stellenwert das Internet in unserer Gesellschaft heute einnimmt. Gleiches gelte auch für künstliche Intelligenz.

IV. AI and patentable inventions

Nachdem sich das zweite Referat marken- und insb. urheberrechtlichen Fragen gewidmet hatte, fokussierte das dritte Referat auf das Patentrecht. Dr. Beat Weibel, Chief IP Counsel der Siemens AG in München, Deutschland, referierte zum Thema «AI and patentable inventions». Künstliche Intelligenz berühre im Patentrecht im Wesent­lichen drei Teilgebiete. Erstens sei hier wiederum an Recherche- und Forschungswerkzeuge zu denken, die ­(Patent-)Anwälte bei ihrer Arbeit unterstützen würden. Er selber wolle seine Präsentation aber auf die beiden an­deren Aspekte konzentrieren, nämlich zum einen den patentrechtlichen Schutz von Erfindungen, die künstliche Intelligenz zum Gegenstand haben, und zum anderen den Schutz von mittels künstlicher Intelligenz geschaffenen Erzeugnissen.

Weibel zeigte zunächst einen kurzen Film darüber, wie Siemens künst­liche Intelligenz im Betrieb einsetzt. Die Anwendungsbereiche reichten dabei von Forschung und Entwicklung bis hin zu Unterhalt und Wartung der fertigen Produkte. So konnte etwa die Effizienz einer Gasturbine dank künstlicher Intelligenz um 20 % gesteigert und deren Lebensdauer beachtlich verlängert ­werden. Während des Betriebes der Produkte soll entsprechend trainierte Software unter dem Stichwort «preventive maintenance» zudem zu erwartende Defekte an Maschinen vorhersehen und so eine rechtzeitige Wartung statt aufwändiger Reparaturen ermöglichen.

Im Anschluss kam Weibel zum Kernstück seiner Präsentation, zur ­Patentierbarkeit von Erfindungen, die künstliche Intelligenz zum Gegenstand haben. Solche Erfindungen stellten den Patentanmelder vor eine Reihe von Problemen: Zum einen seien sie ihrer Natur nach stets computerimplementierte Erfindungen und hätten zudem oft einen engen Bezug zu Geschäftsmethoden und der Aufbereitung und Wiedergabe von Daten, weshalb ihnen die grundsätzlichen Ausschlusskriterien der Patentierbarkeit nach Art. 52 Abs. 2 EPÜ entgegenstünden. Zum anderen stellten die Entscheide künstlicher Intelligenz oftmals eine «Blackbox» dar, was zur Beanstandung mangelhafter Offenbarung in der Patentanmeldung (Art. 83 EPÜ) führen könne. Der Referent zeigte am Beispiel des EPA, mit welcher Begründung derartige Patente in der Praxis oft bemängelt bzw. verweigert werden. Es sei deshalb zwingend nötig, die Erfindung nicht nur in den Ansprüchen, sondern auch in der Beschreibung und den Zeichnungen in einen ausreichenden technischen Kontext zu stellen. Für die anwesenden Praktiker besonders interessant war, dass Weibel in der Folge anhand konkreter Formulierungsbeispiele und EPA-Entscheide zeigte, wie sich Beanstandungen überwinden lassen und wie z. B. gemischte Ansprüche (d. h. Ansprüche die sowohl technische als auch nichttechnische Merkmale aufweisen) formuliert werden sollten. Was die ausreichende Offen­barung anbelange, seien auch Fluss­diagramme, die den groben Ablauf der Datenver­arbeitung abbildeten, sehr hilfreich. Allerdings sei die Offenbarung bei Erfindungen rund um künstliche Intelligenz per se heikel. Denn der Funktionsablauf der Erfindung, d. h., wie z. B. eine künstliche Intelligenz von den Ausgangsdaten zum Ergebnis gelange, sei gerade der eigentliche Wert der Erfindung. Als Faustregel sei es deshalb sinnvoller, die konkreten Anwendungen zu patentieren als die Technologie selber. Dies gelte umso mehr, als Teile der Technologie (z. B. die verwendeten Algorithmen) oft ohnehin z. B. als Open Source erhältlich seien und entsprechend für jeden zugänglich. Schliesslich würde in der Praxis auch häufig eine Kombination von Anspruchsarten («claim-sets», z. B. betreffend Training der Software, der Speicherung der Daten, Vorrichtung zur Ausführung etc.) verwendet, um einen möglichst umfassenden Schutz der Erfindung sicherzustellen. Dies sei zwar aufwendiger und damit teurer, zahle sich aber später bei der Durchsetzung der Patente aus.

Den dritten und letzten Teil seiner Präsentation widmete Weibel der ­Patentierbarkeit von durch künstliche ­Intelligenz generierten Ergebnissen. Neben den bereits in den voran­ge­henden Referaten diskutierten (ur­heber­recht­lichen) Werken wie etwa dem «neuen» Rembrandt drehe sich die Diskussion im Patentrecht primär um Gegenstände wie z. B. Bauteile, die von einer Software nach gewissen Vorgaben entwickelt wurden. Dabei ergebe sich jedoch oft das Problem, dass die an der Entwicklung beteiligten Experten nicht nachvollziehen könnten, warum die Software ein Bauteil genau so gestaltet hat. Er illustrierte dies am Beispiel einer Aufhängung, die von einer Software mit künstlicher Intelligenz verbessert wurde. Die Ingenieure waren bei der Betrachtung des Endergebnisses überrascht, wie die Software die einzelnen Befestigungspunkte der Aufhängung miteinander verband. Für die Frage der Patentierbarkeit bedeute dies Folgendes: Neuheit und Nichtnaheliegen seien im Allgemeinen regelmässig erfüllt. Allerdings fehle es streng genommen wiederum am menschlichen Erfinder, dem das Patent zustehe​13. Maschinen bzw. Software könnten mangels Rechtspersönlichkeit offensichtlich keine Erfinder sein. Als Lösung schlug Weibel vor, den Erfinderbegriff auf juristische Personen auszuweiten. Als Erfinder der Arbeits­ergebnisse würde damit diejenige (juristische) Person gelten, welche die frag­liche Software oder Massnahme betreibt.

In der anschliessenden Diskussion wurde der Vorschlag des Referenten rege diskutiert. Aus dem Publikum wurde diesbezüglich zur Vorsicht gemahnt, weil ein solches System zu einer Flut von Patenten führen könnte. Dem wurde entgegengehalten, dass nicht jede Erfindung auch zwingend patentiert werden müsse. Wo z. B. eine Software zahlreiche verschiedene Lösungen für ein Problem präsentiere, dürfte sich zudem automatisch die Frage stellen, ob die jeweiligen (kleinen Abweichungen) noch ausreichen, das Endergebnis erfinderisch erscheinen zu lassen. Schliesslich wurde aus dem Publikum auch noch eine weitere interessante ­Anwendungsmöglichkeit für künstliche Intelligenz angedacht. Denn genauso wie eine Software eingesetzt werden könne, um ein Bauteil mit bestimmten Parametern zu erschaffen, so könne sie auch eingesetzt werden, um genau jene Parameter und damit den Patentschutz eines Dritten zu umgehen. Künstliche Intelligenz dürfte also sowohl auf die Patentanmeldung als auch auf allfällige Verletzungsprozesse interessante Auswirkungen haben.

V. Presentation of use cases

Der letzte Abschnitt der Tagung widmete sich der Vorstellung konkreter Anwendungsfälle. Hierzu referierten Sonia Cooper, Senior Patent Attorney bei Microsoft in London, Vereinigtes Königreich, sowie Léonard Bouchet, Responsable Données et Archives bei RTS – Radio Télévision Suisse in Genf. Den Anfang machte Bouchet, der über den Einsatz künstlicher Intelligenz bei RTS berichtete. Bouchet zeigte das ­Archivsystem des RTS. Früher hätten Mitarbeiter von Hand unzählige Stunden Videomaterial sichten, verschlagworten und mit Beschreibungen versehen müssen, damit Journalisten bei Bedarf das richtige Material, z. B. einer bestimmten Person, finden konnten. Hier versuche man nach und nach, diese Arbeiten durch künstliche Intelligenz erledigen zu lassen, die diese Arbeiten oft sogar effizienter erledige als Menschen. Die Arbeit für die mensch­lichen Mitarbeiter falle jedoch nicht weg, sondern verlagere sich vielmehr: weg von der Kategorisierung an sich hin zur Verwaltung der anfallenden Datenmengen sowie zur Kontrolle und wo nötig Korrektur der Ergebnisse. Ein ­weiterer Anwendungsbereich von Bild­erkennungssoftware sei etwa, dass ein Journalist ein Bild einer Person hoch­laden könne, worauf das System diese identifiziere und entsprechend weiteres Bild- und Videomaterial präsentiere. Vorteil des neuen Systems sei, dass viel grössere Datenmengen katalogisiert und damit zugänglich gemacht werden könnten, als dies bisher von Hand der Fall war. Der Einsatz künstlicher Intelligenz berge aber auch neue Herausforderungen. Mit der gesteigerten Datenmenge werde es auch schwieriger, die jeweiligen Rechteinhaber zu identifizieren, da die Software z. B. den Abspann eines Videos finden und die darin aufgeführten Informationen verstehen lernen müsse. Seitens RTS freue man sich jedoch über die zahlreichen Möglichkeiten, die künstliche Intelligenz biete, und arbeite diesbezüglich auch aktiv mit anderen Medienunternehmen zusammen.

Als Zweite stellte Cooper den Einsatz von künstlicher Intelligenz bei ­Microsoft vor. Als einer der weltweit grössten Software- und Technologie­konzerne nutze Microsoft künstliche Intelligenz in einer Vielzahl seiner ­Produkte, auch wenn dies oft für den Endabnehmer gar nicht ersichtlich sei. Die öffentliche Angst vor künstlicher Intelligenz erachtete Cooper als unbegründet. Denn künstliche Intelligenz ergänze menschliche Intelligenz lediglich. Sie zog den Vergleich zur industriellen Revolution, seit der Maschinen die Muskelkraft des Menschen ergänzten und unterstützten. Analog werde künstliche Intelligenz den menschlichen Geist ergänzen und unterstützen. Als konkreten Anwendungsfall zeigte Cooper den Alltag eines blinden Softwareingenieurs bei Microsoft. Dieser trägt «Smart Glasses», d. h. eine Brille mit eingebauter Kamera. Die zuge­hörige Software analysiert die Auf­nahmen und beschreibt dem Träger anschliessend Umgebung, Objekte, ­Personen und Texte. Die Referentin ­demonstrierte die Software anschlies­send mit ihrem eigenen Smartphone. Sie richtete dessen Kamera aufs Publikum, worauf die Software ihr die Situation treffend als «eine Gruppe von Personen, auf Stühlen sitzend» beschrieb. Diese und andere faszinierende Anwendungen künstlicher Intelligenz seien im Wesentlichen nur möglich geworden, weil drei Faktoren in den letzten Jahren zusammengekommen seien: Big Data, d. h. die Sammlung enormer Datenmengen, die zum Training künstlicher Intelligenz eingesetzt werden können; die Verfügbarkeit der nötigen Rechnerleistung, wie sie Danani im Eingangsreferat bereits angesprochen hatte, sowie fortschrittliche Algorithmen, die aus den Daten Sinn gewinnen könnten. Mit dem ersten Punkt, der Sammlung und Strukturierung grosser Datenmengen («data mining»), sprach Cooper zum Schluss ihres Referates auch einen der potenziellen Konfliktherde an. Denn bei der Sammlung und Verarbeitung solcher Datenmen-gen, z. B. Fotos von Personen oder Gegenständen, stellten sich unweigerlich urheber- und persönlichkeitsrechtliche Fragen. Diesbezüglich stellte sie die Frage in den Raum, ob das Urheberrecht tatsächlich solche Tätigkeiten be- oder gar verhindern solle, obwohl die Verwendung der Daten nur zum Training der Software erfolge.

VI. Podiumsdiskussion

Die Veranstaltung wurde wie üblich durch eine Podiumsdiskussion abgerundet. Nach einer kurzen Einführung durch Dr. Jürg Simon, Rechtsanwalt in Zürich, führte Oertli den regen Austausch zwischen den Referenten und dem Publikum.

Oertli stellte zunächst die Frage, ob die Schweiz im Angesicht künstlicher Intelligenz eine neue Art Immaterial­güterrecht benötige. Aus dem Publikum wurde diese Frage verneint, sie tauche bei jeder neuen Technologie auf. Allerdings könne man sich fragen, ob Big Data allenfalls neue Regelungen nötig mache. Andererseits bestehe in der Schweiz im Lauterkeitsrecht mit Art. 5 lit. c UWG eine Bestimmung, die die Verwertung fremder Leistungen sanktioniere. Diese Bestimmung könnte bei entsprechender Auslegung auch in ­solchen Situationen Schutz bieten. Nordemann fand die Idee grundsätzlich interessant, weil sie denjenigen schützen würde, der in die Datensammlung investiert hat. Andere Voten aus dem Publikum zeigten sich skeptisch, dass der Weg über das UWG der richtige sei. Er gebe zwar derjenigen Person Rechte, die die Datensammlung generiert habe. Die Inhaber der Ursprungsdaten (z. B. die abgebildeten Personen etc.) erhielten dadurch jedoch keinerlei Rechte. Ferrari Hofer stellte danach zur Debatte, ob denn Daten per se einen Wert hätten. Denn eine Eigenschaft künstlicher Intelligenz sei es ja gerade, dass sie aus riesigen, für sich genommen wertlosen Datenmengen Struktur, Sinn und damit Wert generieren könne. Das bisherige System der Immaterialgüterrechte belohne ja auch diejenigen, die durch Kombination etwas von Wert (sei es eine Erfindung oder ein künst­lerisches Werk) geschaffen hätten. Aus dem Publikum wurde als Alternative weiter vorgeschlagen, gewisse Verhaltensweisen mit Schutzrechten zu belohnen, also z. B. die Selektion der Daten und das anschliessende Training der künstlichen Intelligenz.

Oertli nahm diesen Aspekt auf und kam auf die von Cooper ange­sprochene Problematik zurück, nämlich die Verwendung urheberrechtlich geschützten Materials zum Training von künstlicher Intelligenz. Nordemann antwortete, das Urheberrecht sei in ­solchen Fällen klarerweise betroffen. Die Frage sei, ob allenfalls Ausnahmen bzw. Schranken greifen würden und ob es deren weitere für künstliche Intel­ligenz benötige. Cooper ergänzte, künstliche Intelligenz sei ein Werkzeug für ganz spezifische Problemlösungen. Der ­klassische Urheberrechtsschutz ­mache in solchen Situationen wenig Sinn. Daten gewönnen erst durch die Verarbeitung an Wert, ein Schutz für Daten per se würde demgegenüber die technische Innovation stark behindern. Auf Rückfrage von Danani ergänzte Nordemann, bei der Geltendmachung von Urheberrechtsverletzungen würden sich ohnehin schwierige Beweisfragen stellen, da man einer künstlichen Intelligenz üblicherweise nicht ansehe, mit welchen Daten sie trainiert worden sei.

Zum Schluss der Diskussion fragte Oertli die Teilnehmenden, was der ­voraussichtlich nächste grosse Schritt auf dem Gebiet künstlicher Intelligenz sei. Danani und Cooper waren sich ­einig, dass personalisierte Medizin, d. h. das Massschneidern von Wirkstoffen und Behandlungen auf die Patienten, unser Leben positiv verändern werde. Bouchet warnte jedoch auch davor, künstlicher Intelligenz blind zu vertrauen, insb. im Hinblick auf autonome Systeme wie Fahrzeuge oder gar Waffensysteme. Zum Schluss dankte Ferrari Hofer den Referenten für die qualitativ hochstehenden Beiträge und schloss die Veranstaltung.

Das Fazit der Veranstaltung dürfte sein, dass künstliche Intelligenz die Tätigkeit von Immaterialgüterrechtlern massgeblich verändern wird, sowohl was die verwendeten Werkzeuge anbelangt als auch den Inhalt der Arbeit an sich. Es hat sich aber auch gezeigt, dass sich die neuen Möglichkeiten zu gros­sen Teilen in das bestehende System der Immaterialgüterrechte einordnen lassen. Der Wandel dürfte für die Praktiker also eher Evo- statt Revolution sein.

Was die rechtliche Regelung künstlicher Intelligenz bzw. deren Arbeitsergebnisse anbelangt, scheint bei den bestehenden Schutzrechten punktuell Anpassungsbedarf zu bestehen, z. B. was deren Abhängigkeit von den Leistungen einer natürlichen Person (als Schöpfer bzw. Erfinderin) anbelangt. Grösserer Handlungsbedarf besteht dagegen im Urheberrecht. Die Anwendungsbeispiele und die an­schlies­sende Podiumsdiskussion haben gezeigt, dass insb. bei der Handhabung von Datensammlungen, ohne die keine künstliche Intelligenz trainiert werden kann, eine Vielzahl an immaterialgüter-, datenschutz- und eigentumsrechtlichen Fragen zusammentreffen. Daten, die verschiedentlich schon als «Rohstoff des 21. Jahrhunderts» bezeichnet wurden, dürften also Immaterialgüterrechtler auch in diesem Kontext noch eine Weile beschäftigen.

Fussnoten:
*

MLaw, Rechtsanwalt, Bern.

1

2

Scuola universitaria professionale della Svizzera italiana – SUPSI; <www.supsi.ch>.

3

4

Vgl. zur Veranschaulichung statt vieler etwa <www.topbots.com/chihuahua-muffin-sear​ching-best-computer-vision-api/>.

5

Von einem «bias», zu Deutsch etwa der Neigung oder gar Befangenheit, von Algorithmen spricht man deshalb, weil künstliche Intelligenz je nach ihr zugrunde liegender Datenmenge und Art ihrer Programmierung nicht unbedingt objektive Ergebnisse liefern muss, sondern (ungewollt) «befangen» sein kann; vgl. statt vieler <hbr.org/2019/05/addressing-the-biases-plaguing-algorithms>.

6

7

Richtlinie 96/9/EG des Europäischen Parlaments und des Rates vom 11. März 1996 über den rechtlichen Schutz von Datenbanken.

8

So für die Schweiz Art. 2 Abs. 1 i.V.m Art. 6 URG; vgl. auch z. B. § 2 Abs. 2 i.V.m. § 7 des deutschen UrhG.

9

Copyright, Designs and Patents Act 1988 (CDPA).

10

Sect. 9 (3) CDPA 1988 (Hervorhebung hinzugefügt): «In the case of a literary, dramatic, musical or artistic work which is computer-generated, the author shall be taken to be the person by whom the arrangements necessary for the creation of the work are undertaken».

11

Cosmetic Warriors Ltd. v. Amazon.co.uk Ltd. [2014] EWHC 1316 (Ch).

12

OLG Hamburg vom 15. Februar 2001, GRUR 2002, 278 (279), «AKUmed».

13

Vgl. für die Schweiz Art. 3 PatG; für Deutschland § 6 des deutschen PatG.