Gouverner l'IA : les régulateurs peuvent-ils contrôler l'intelligence artificielle ?

6 minutes de lecture

Cet article a été publié à l'origine sur The Raconteur.

Comment voyez-vous le monde s'adapter/évoluer dans un environnement d'IA ?

En ce qui concerne les applications informatiques, nous assisterons à une application et à une adoption croissantes des techniques d'apprentissage automatique (ML) et d'intelligence artificielle (IA).

Nous le voyons déjà dans les recommandations d'achat, les jeux et les grands réseaux sociaux. Les assistants vocaux tels que Siri, Alexa et Google Assistant utilisent la ML pour effectuer le traitement du langage naturel et la classification afin de répondre de manière appropriée.

Ces techniques rendront l'interaction avec les appareils de plus en plus transparente, ce qui facilitera l'utilisation de la technologie tout en rendant les humains plus efficaces dans la recherche et la gestion de l'information.

À l'instar de l'automatisation et de l'application de l'apprentissage automatique aux entreprises et aux processus commerciaux, il existe de nombreuses possibilités d'appliquer des techniques similaires aux fonctions gouvernementales. Les transports, les services publics et la santé publique sont tous des fonctions massives du secteur public qui pourraient bénéficier de l'application de l'apprentissage automatique et de l'IA.

Illustration de l'intelligence artificielle

Stephen Hawking affirme qu'il pourrait y avoir une apocalypse robotique. Quels sont les risques associés au développement de logiciels capables de prendre des décisions et de penser de manière "indépendante" ?

J'ai pris soin d'utiliser le terme d'apprentissage automatique plutôt que celui d'intelligence artificielle, car nous ne sommes pas encore parvenus à ce que l'on pourrait considérer comme une pensée "indépendante" dans les logiciels informatiques. En outre, la prise de décision et la pensée "indépendante" sont deux concepts différents.

Nous avons maintenant des voitures améliorées par ordinateur qui peuvent "décider" de freiner pour éviter une collision (freinage d'urgence automatique), mais cette "décision" est limitée à une situation très spécifique. Selon moi, la pensée indépendante est associée à la conscience de soi et à l'émotion. Nous n'avons pas encore atteint ce type d'IA et il semble que nous en soyons encore loin.

Nous ne savons pas encore si c'est possible. Je suis sceptique quant à notre capacité à développer des ordinateurs capables d'une véritable pensée indépendante. Les interactions complexes entre nos fonctions cérébrales et notre physiologie semblent vraiment difficiles à reproduire.

Cela dit, l'utilisation d'ordinateurs pour automatiser des systèmes physiques complexes, tels que les voitures autonomes, qui requièrent un "jugement", sera délicate. Par exemple, une voiture autopilotée pourrait avoir à décider entre blesser potentiellement les passagers ou peut-être beaucoup plus de piétons.

La voiture doit-elle protéger les passagers à tout prix, ou essayer de minimiser le préjudice total pour tous les humains impliqués, même si cela implique de nuire aux passagers ? Si vous saviez qu'une voiture auto-conduite était programmée pour réduire au minimum les dommages causés à la vie humaine dans certaines situations, accepteriez-vous qu'elle vous conduise ?

Permettre à des logiciels de contrôler des systèmes physiques comporte donc des risques certains. Je pense que notre adoption de l'automatisation informatique sera évaluée au cas par cas. Dans certains cas, une automatisation accrue rendra les activités humaines plus sûres. Dans d'autres cas, nous pourrons choisir de continuer à nous appuyer sur la prise de décision humaine, mais peut-être avec l'aide d'un ordinateur.

L'IA sera-t-elle capable de gouverner (dans les litiges civils, par exemple) ?

Cela nous ramène à la notion de jugement et, en outre, de moralité. Si une véritable IA est possible et qu'elle peut évaluer des situations et porter des jugements, alors nous évaluerons l'IA pour gouverner tout comme nous le ferions pour des juges humains.

Tout comme les juges humains doivent convaincre le public de leur aptitude à faire respecter la loi, il en irait de même pour les juges IA. S'ils réussissent les tests actuels de nomination des juges, il pourrait être acceptable de permettre à une IA de gouverner. Cela dit, l'IA sera-t-elle capable de gouverner de la sorte ? Je ne le crois pas.

L'IA a été utilisée lors d'élections récentes (États-Unis/Royaume-Uni - pour évaluer les politiques populaires et influencer les électeurs).

Pour être précis, je ne pense pas qu'une véritable IA ait été utilisée dans ces situations, mais plutôt une application plus restreinte de l'apprentissage automatique. Les humains contrôlaient l'exécution des algorithmes d'apprentissage automatique. L'IA n'a pas choisi d'elle-même d'influencer les élections. Je pense que l'apprentissage automatique sera de plus en plus utilisé comme un outil par les humains pour influencer les électeurs et façonner la politique.

Pensez-vous que la gouvernance devra s'adapter pour gérer l'IA ? Est-il même possible de la réglementer ?

Dans la pratique, l'IA est en fait l'application d'algorithmes à des données dans le cadre d'un processus contrôlé par l'homme. En ce sens, la gouvernance doit s'adapter pour gérer et réglementer les logiciels informatiques utilisés dans des activités qui peuvent avoir un impact sur le bien-être humain, comme les machines à voter, les transports, les systèmes de santé et bien d'autres.

La technologie informatique a progressé à un rythme si rapide que la surveillance gouvernementale n'a pas été en mesure de suivre. Il est intéressant de penser que pour construire un pont, il faut être ingénieur mécanicien agréé, alors que les développeurs de logiciels n'ont pas besoin d'une telle licence pour travailler sur de nombreux types de systèmes qui peuvent affecter la vie humaine, tels que les dispositifs médicaux.

Pouvons-nous avoir une gouvernance pour les logiciels informatiques sans étouffer l'innovation et sans retarder les bénéfices potentiels pour la vie humaine ? Je n'en suis pas certain.

Pensez-vous que les gouvernements auront leur mot à dire sur les technologies développées légalement ?

Je pense que oui, indirectement, dans le sens où les résultats ou l'impact de la technologie seront autorisés par la loi ou non. Prenons par exemple le domaine obscur des drones. Les gouvernements auront certainement leur mot à dire sur la manière dont la technologie des drones peut être déployée et utilisée.

Les citoyens exigeront une réglementation par le biais du processus démocratique. Bien que, dans le cas des drones, la technologie soit tellement nouvelle et différente, notre compréhension de leur impact et les lois visant à les réglementer n'ont pas encore été rattrapées, et cela prendra donc du temps.

Les robots seront-ils un jour capables de commettre des crimes ?

Si vous pensez que nous pouvons créer des robots artificiels intelligents et conscients qui peuvent avoir des défauts tout comme les humains, alors oui, ces robots pourraient commettre des crimes tout comme les humains. Cela suggérerait que les robots ont des émotions et des motivations égoïstes. Je doute que la technologie numérique nous permette d'atteindre une telle conscience.

La question de savoir si les systèmes autonomes soutenus par l'IA et la ML peuvent commettre un délit, mais pas en connaissance de cause, est peut-être plus subtile. Je pense qu'il s'agit là d'un scénario plus probable. Par exemple, un drone peut voler dans un espace aérien ou une propriété où il est interdit de pénétrer. Une voiture autonome peut dépasser la limite de vitesse par accident ou parce qu'il était nécessaire d'éviter un accident.

Selon vous, les gouvernements sont-ils en retrait lorsqu'il s'agit de réglementer l'IA ?

Les logiciels, en général, évoluent à un rythme très rapide, ce qui continuera à poser des défis permanents à la réglementation gouvernementale.

Par exemple, un logiciel peut être développé pour être biaisé, conduire à des systèmes dangereux ou prendre des décisions financièrement irresponsables. Les pouvoirs publics doivent donc suivre de près l'évolution de toutes les technologies et intervenir en conséquence pour réglementer lorsque cela s'avère judicieux. L'IA en est l'exemple le plus récent et le plus marquant.

Que doivent-ils faire pour rattraper tous les développements ?

Je pense que nous devons mieux éduquer le grand public sur ces sujets technologiques complexes. Nous avons besoin d'un plus grand nombre de personnes ayant une meilleure compréhension de la technologie, des logiciels et des mathématiques. En fait, nous devons développer une technologie qui puisse nous aider à mieux comprendre les risques et les avantages des systèmes logiciels existants et futurs.

Dans un avenir marqué par l'IA, un revenu universel sera-t-il nécessaire ? Dans l'affirmative, à quoi pourrait-il ressembler et comment pourrait-il être administré ?

Je pense que la technologie de l'IA augmentera l'activité humaine plus qu'elle ne la remplacera. Elle nous rendra plus efficaces et nous permettra d'utiliser notre jugement de différentes manières.

Cette augmentation modifiera la manière dont l'intelligence humaine est appliquée et dont la créativité humaine est réalisée. Ces nouvelles formes d'interaction entre l'homme et l'ordinateur déboucheront sur des activités rémunératrices. Je ne pense pas qu'un revenu universel sera nécessaire.

Directeur scientifique de SnapLogic et professeur d'informatique à l'université de San Francisco

Nous recrutons !

Découvrez votre prochaine grande opportunité de carrière.