Regulierung von KI: Können Regulierungsbehörden künstliche Intelligenz kontrollieren?

6 Minuten lesen

Dieser Beitrag erschien ursprünglich auf The Raconteur.

Wie wird sich die Welt Ihrer Meinung nach in einer KI-Umgebung anpassen/entwickeln?

Im Bereich der Computeranwendungen werden wir eine zunehmende Anwendung und Übernahme von Techniken des maschinellen Lernens (ML) und der künstlichen Intelligenz (KI) erleben.

Wir sehen dies bereits bei Einkaufsempfehlungen, Spielen und großen sozialen Netzwerken. Sprachassistenten wie Siri, Alexa und Google Assistant nutzen ML, um natürliche Sprache zu verarbeiten und zu klassifizieren, um angemessen zu reagieren.

Solche Techniken werden die Interaktion mit Geräten zunehmend nahtlos machen, was letztlich die Nutzung der Technologie erleichtert und den Menschen bei der Suche und Verwaltung von Informationen effizienter macht.

Genau wie bei der Automatisierung und der Anwendung von maschinellem Lernen auf Unternehmen und Geschäftsprozesse gibt es viele Möglichkeiten, ähnliche Techniken auf staatliche Aufgaben anzuwenden. Verkehr, öffentliche Versorgungsbetriebe und das Gesundheitswesen sind allesamt große Aufgaben des öffentlichen Sektors, die von der Anwendung von ML und KI profitieren könnten.

Künstliche Intelligenz - Illustration

Stephen Hawking sagt, es könnte eine Roboter-Apokalypse geben. Welche Risiken sind mit der Entwicklung von Software verbunden, die in der Lage ist, Entscheidungen zu treffen und "unabhängig" zu denken?

Ich habe darauf geachtet, den Begriff "maschinelles Lernen" anstelle von "künstlicher Intelligenz" zu verwenden, weil wir noch nicht das erreicht haben, was man als "unabhängiges" Denken bei Computersoftware bezeichnen könnte. Außerdem sind Entscheidungsfindung und "unabhängiges" Denken zwei unterschiedliche Konzepte.

Wir haben jetzt computergesteuerte Autos, die "entscheiden" können, die Bremsen zu betätigen, um einen Zusammenstoß zu vermeiden (automatische Notbremsung), aber eine solche "Entscheidung" ist auf eine ganz bestimmte Situation beschränkt. Meiner Meinung nach ist unabhängiges Denken mit Selbstbewusstsein und Emotionen verbunden. Diese Art von KI haben wir bis heute nicht erreicht, und es scheint, dass wir davon noch weit entfernt sind.

Wir wissen noch nicht, ob das überhaupt möglich ist. Ich bin skeptisch, dass wir in der Lage sein werden, Computer zu entwickeln, die wirklich unabhängig denken können. Die komplexen Wechselwirkungen zwischen den Funktionen unseres Gehirns und unserer Physiologie scheinen wirklich schwer nachzubilden zu sein.

Der Einsatz von Computern zur Automatisierung komplexer physikalischer Systeme, wie z. B. selbstfahrender Autos, die ein "Urteilsvermögen" erfordern, wird jedoch schwierig sein. Ein selbstfahrendes Auto könnte sich beispielsweise entscheiden müssen, ob es den Insassen oder vielleicht noch mehr Fußgängern Schaden zufügt.

Sollte das Auto die Insassen um jeden Preis schützen oder versuchen, den Gesamtschaden für alle beteiligten Menschen so gering wie möglich zu halten, auch wenn das bedeutet, dass die Insassen zu Schaden kommen? Wenn Sie wüssten, dass ein selbstfahrendes Auto so programmiert ist, dass es in bestimmten Situationen den Gesamtschaden für das menschliche Leben minimiert, würden Sie dann zustimmen, dass das Auto Sie fährt?

Es birgt also durchaus Risiken, wenn man Software die Kontrolle über physische Systeme überlässt. Ich denke, dass die Einführung der Computerautomatisierung von Fall zu Fall beurteilt werden muss. In einigen Fällen wird die zunehmende Automatisierung menschliche Tätigkeiten sicherer machen. In anderen Fällen werden wir uns vielleicht weiterhin auf die menschliche Entscheidungsfindung verlassen, aber vielleicht mit Computerunterstützung.

Wird KI in der Lage sein, zu regieren (z.B. in zivilrechtlichen Streitigkeiten)?

Damit sind wir wieder beim Begriff des Urteils und darüber hinaus bei der Moral. Wenn eine echte KI möglich ist und sie Situationen beurteilen und Urteile fällen könnte, dann würden wir die KI für das Regieren genauso bewerten, wie wir es mit menschlichen Richtern tun würden.

Genauso wie menschliche Richter die Öffentlichkeit von ihrer Eignung zur Wahrung des Rechts überzeugen müssen, würde dies auch für KI-Richter gelten. Wenn sie unsere derzeitigen Tests für die Ernennung von Richtern bestehen, könnte es akzeptabel sein, eine KI zum Regieren zuzulassen. Aber wird eine KI in der Lage sein, so zu regieren? Das glaube ich nicht.

KI wurde bei den letzten Wahlen eingesetzt (USA/Großbritannien - um die Politik der Bevölkerung zu beurteilen und die Wähler zu beeinflussen) - wird dies in Zukunft ein Thema sein?

Um genau zu sein, glaube ich nicht, dass in diesen Situationen echte KI zum Einsatz kam, sondern eher die engere Anwendung des maschinellen Lernens. Die Ausführung der Algorithmen des maschinellen Lernens wurde von Menschen kontrolliert. Die KI hat nicht von sich aus beschlossen, Wahlen zu beeinflussen. Ich glaube, dass maschinelles Lernen zunehmend von Menschen als Werkzeug eingesetzt wird, um Wähler zu beeinflussen und die Politik zu gestalten.

Glauben Sie, dass sich die Politik anpassen muss, um mit KI umgehen zu können? Ist es überhaupt möglich, sie zu regulieren?

In der Praxis ist KI die Anwendung von Algorithmen auf Daten in einem Prozess, der von Menschen kontrolliert wird. In diesem Sinne muss sich die Politik darauf einstellen, Computersoftware zu handhaben und zu regulieren, die bei Aktivitäten eingesetzt wird, die sich auf das menschliche Wohlergehen auswirken können, wie z. B. Wahlmaschinen, Verkehrssysteme, Gesundheitssysteme und viele andere.

Die Computertechnologie hat sich so schnell weiterentwickelt, dass die staatliche Aufsicht damit nicht Schritt halten konnte. Es ist interessant, sich vorzustellen, dass man für den Bau einer Brücke eine Lizenz als Maschinenbauingenieur benötigt, während Softwareentwickler keine solche Lizenz benötigen, um an vielen Arten von Systemen zu arbeiten, die sich auf das menschliche Leben auswirken können, wie etwa medizinische Geräte.

Können wir eine Governance für Computersoftware haben, ohne Innovationen zu ersticken und den potenziellen Nutzen für das menschliche Leben zu verzögern? Ich bin mir nicht sicher.

Glauben Sie, dass die Regierungen ein Mitspracherecht bei der legalen Entwicklung von Technologien haben werden?

Ich denke, indirekt in dem Sinne, dass die Ergebnisse oder Auswirkungen der Technologie durch das Gesetz zugelassen werden oder nicht. Nehmen wir den undurchsichtigen Bereich der Drohnen. Die Regierungen werden sicherlich ein Mitspracherecht haben, wie die Drohnentechnologie eingesetzt und genutzt werden kann.

Die Bürger werden über den demokratischen Prozess eine Regulierung fordern. Im Falle der Drohnen ist die Technologie zwar so neu und anders, aber unser Verständnis für ihre Auswirkungen und die Gesetze zu ihrer Regulierung haben noch nicht aufgeholt, so dass dies Zeit braucht.

Werden Roboter jemals in der Lage sein, Verbrechen zu begehen?

Wenn Sie glauben, dass wir bewusste, künstliche, intelligente Roboter schaffen können, die genau wie Menschen Fehler haben können, dann könnten solche Roboter genau wie Menschen Verbrechen begehen. Das würde bedeuten, dass Roboter Gefühle und egoistische Motive haben. Ich bezweifle, dass wir ein solches Bewusstsein in der Digitaltechnik erreichen werden.

Die vielleicht subtilere Frage ist, ob autonome Systeme, die von KI und ML unterstützt werden, ein Verbrechen begehen können, aber nicht wissentlich. Ich halte dies für ein wahrscheinlicheres Szenario. Eine Drohne kann zum Beispiel in einen Luftraum oder auf ein Grundstück fliegen, das nicht betreten werden darf. Ein autonomes Auto kann versehentlich die Geschwindigkeitsbegrenzung überschreiten oder weil es notwendig war, um einen Unfall zu vermeiden.

Sind Ihrer Meinung nach die Regierungen bei der Regulierung von KI auf dem Holzweg?

Software im Allgemeinen entwickelt sich in rasantem Tempo, was die staatliche Regulierung weiterhin vor große Herausforderungen stellen wird.

So kann beispielsweise Software so entwickelt werden, dass sie Verzerrungen aufweist, zu unsicheren Systemen führt oder finanziell unverantwortliche Entscheidungen trifft. Daher muss die Regierung die Entwicklung aller Technologien aufmerksam verfolgen und entsprechend eingreifen, um dort zu regulieren, wo es sinnvoll ist. KI ist das jüngste und bekannteste Beispiel.

Was müssen sie tun, um mit all den Entwicklungen Schritt zu halten?

Ich denke, wir müssen die breite Bevölkerung besser über diese komplexen Technologiethemen aufklären. Wir brauchen mehr Menschen mit einem besseren Verständnis für Technologie, Software und Mathematik. Wir müssen Technologien entwickeln, die uns helfen, die Risiken und Vorteile bestehender und künftiger Softwaresysteme besser zu verstehen.

Wird in einer KI-Zukunft ein universelles Einkommen erforderlich sein? Wenn ja, wie könnte es aussehen und wie könnte es verwaltet werden?

Ich glaube, dass die KI-Technologie die menschliche Tätigkeit eher ergänzen als ersetzen wird. Sie wird uns effizienter machen, so dass wir unser Urteilsvermögen auf andere Art und Weise einsetzen können.

Eine solche Erweiterung wird die Art und Weise verändern, wie menschliche Intelligenz eingesetzt und menschliche Kreativität verwirklicht wird. Solche neuen Formen der Interaktion zwischen Mensch und Computer werden zu einkommensschaffenden Tätigkeiten führen. Ich glaube nicht, dass ein universelles Einkommen notwendig sein wird.

Chefwissenschaftler bei SnapLogic und Professor für Informatik an der Universität von San Francisco

Wir stellen ein!

Entdecken Sie Ihre nächste große Karrierechance.