Le déficit d'éthique en matière d'IA - 94 % des responsables informatiques demandent que l'on accorde plus d'attention au développement responsable et éthique de l'IA

87 % des personnes interrogées estiment que le développement de l'IA devrait être réglementé, selon une nouvelle étude de SnapLogic

SAN MATEO, CALIFORNIE et LONDRES, ROYAUME-UNI - 26 mars 2019 - Le développement éthique et responsable de l'IA est une préoccupation majeure pour les décideurs informatiques (ITDM), selon une nouvelle étude de SnapLogic, Selon cette étude, 94 % des ITDM aux États-Unis et au Royaume-Uni estiment qu'il faut accorder plus d'attention à la responsabilité des entreprises et à l'éthique dans le développement de l'IA. En outre, 87 % des ITDM estiment que le développement de l'IA devrait être réglementé afin de garantir qu'il sert au mieux les intérêts des entreprises, des gouvernements et des citoyens.

La nouvelle étude, menée par Vanson Bourne pour le compte de SnapLogic, a étudié les points de vue et les perspectives des ITDM dans tous les secteurs, en posant des questions clés telles que : qui est le premier responsable du développement éthique et responsable de l'IA, les consortiums d'experts mondiaux auront-ils un impact sur le développement futur de l'IA, et l'IA devrait-elle être réglementée et, si oui, par qui ?

Qui est responsable ?

Lorsqu'on leur demande à qui incombe la responsabilité ultime de veiller à ce que les systèmes d'IA soient développés de manière éthique et responsable, plus de la moitié (53 %) des ITDM désignent les organisations qui développent les systèmes d'IA, qu'il s'agisse d'une entité commerciale ou universitaire. Toutefois, 17 % des répondants attribuent la responsabilité aux personnes qui travaillent sur les projets d'IA. Ce qui est frappant, c'est que les personnes interrogées aux États-Unis sont plus de deux fois plus susceptibles que celles du Royaume-Uni d'attribuer la responsabilité à des travailleurs individuels (21 % contre 9 %).

Un nombre similaire (16 %) considère qu'un consortium mondial indépendant, composé de représentants des gouvernements, des universités, des instituts de recherche et des entreprises, est le seul moyen d'établir des règles et des protocoles équitables pour garantir le développement éthique et responsable de l'IA. Par ailleurs, 11 % des ITDM estiment que la responsabilité devrait incomber aux gouvernements des pays où les systèmes d'IA sont développés.

Orientation et expertise indépendantes

Certaines initiatives régionales indépendantes de soutien, d'orientation et de contrôle de l'IA ont déjà pris forme. groupe d'experts de haut niveau de la Commission européenne sur l'intelligence artificielle en est un exemple. Les ITDM considèrent les groupes d'experts de ce type comme une étape positive dans la résolution des problèmes éthiques liés à l'IA. La moitié des ITDM (50 %) pensent que les organisations qui développent l'IA prendront conseil et adhéreront aux recommandations de groupes d'experts comme celui-ci lorsqu'elles développeront leurs systèmes d'IA. En outre, 55 % pensent que ces groupes favoriseront une meilleure collaboration entre les organisations qui développent l'IA.

Toutefois, les Britanniques sont plus sceptiques quant à l'impact de ces groupes. 15 % des ITDM britanniques ont déclaré qu'ils s'attendent à ce que les organisations continuent à repousser les limites du développement de l'IA sans tenir compte des conseils fournis par les groupes d'experts, contre 9 % de leurs homologues américains. En outre, 5 % des ITDM britanniques ont indiqué que les orientations ou les conseils des groupes de surveillance seraient effectivement inutiles pour stimuler le développement éthique de l'IA, à moins qu'ils ne deviennent exécutoires en vertu de la loi.

Un appel à la régulation

Nombreux sont ceux qui pensent qu'une réglementation sera nécessaire pour garantir un développement éthique et responsable de l'IA. En fait, 87 % des ITDM estiment que l'IA devrait être réglementée, 32 % d'entre eux notant que cette réglementation devrait émaner à la fois du gouvernement et de l'industrie, tandis que 25 % estiment que la réglementation devrait relever de la responsabilité d'un consortium indépendant de l'industrie.

Toutefois, certains secteurs sont plus ouverts à la réglementation que d'autres. Près d'un cinquième (18 %) des ITDM du secteur manufacturier s'opposent à la réglementation de l'IA, suivis par 13 % de ceux du secteur technologique et 13 % de ceux du secteur du commerce de détail, de la distribution et des transports. En ce qui concerne les raisons du rejet de la réglementation, les répondants étaient presque également partagés entre la conviction que la réglementation ralentirait l'innovation en matière d'IA et que le développement de l'IA devrait être laissé à la discrétion des organisations qui créent des programmes d'IA.

Promouvoir l'innovation en matière d'IA, de manière responsable

Gaurav Dhillon, PDG de SnapLogic, a commenté : "L'IA est l'avenir, et elle a déjà un impact significatif sur les entreprises et la société. Toutefois, comme c'est le cas pour de nombreux développements rapides de cette ampleur, il est possible qu'elle soit utilisée à des fins immorales, malveillantes ou simplement involontaires. Nous devrions tous souhaiter que l'innovation en matière d'IA se développe, mais nous devons gérer les risques potentiels et faire notre part pour que l'IA progresse de manière responsable."

M. Dhillon poursuit : "Les préoccupations relatives à la qualité des données, à la sécurité et à la protection de la vie privée sont réelles, et le débat sur la réglementation se poursuivra. Mais l'IA fonctionne avec des données - elle nécessite un accès permanent et facile à de grands volumes de données qui circulent librement entre des systèmes disparates afin de former et d'exécuter efficacement le système d'IA. La réglementation a ses mérites et peut s'avérer nécessaire, mais elle doit être mise en œuvre de manière réfléchie afin de préserver l'accès aux données et la circulation de l'information. Sans cela, les systèmes d'IA travailleront à partir de données incomplètes ou erronées, ce qui entravera les progrès de l'innovation future en matière d'IA."

À propos de la recherche

L'étude a été réalisée par le cabinet d'études indépendant Vanson Bourne en février 2019 pour le compte de SnapLogic. Au total, 300 décideurs informatiques ont participé à l'étude, représentant des organisations de plus de 1 000 employés à travers les États-Unis et le Royaume-Uni.

À propos de Vanson Bourne

Vanson Bourne est un spécialiste indépendant des études de marché pour le secteur technologique. Sa réputation d'analyse solide et crédible repose sur des principes de recherche rigoureux et sur sa capacité à recueillir l'avis de décideurs de haut niveau dans toutes les fonctions techniques et commerciales, dans tous les secteurs d'activité et sur tous les grands marchés. Pour plus d'informations, visitez le site vansonbourne.com.

À propos de SnapLogic

SnapLogic est le numéro 1 de l'intégration intelligente plateforme. Les capacités d'intégration en libre-service et les workflows , alimentées par l'IA, permettent aux entreprises de gérer rapidement et facilement tous leurs projets d'intégration d'applications, de données et d'ingénierie des données sur une seule plateforme évolutive. gérer tous leurs projets d'intégration d'applications, d'intégration de données et d'ingénierie des données sur une seule plateforme évolutive. plateforme. Des centaines de clients du Global 2000 - dont Adobe, AstraZeneca, Box, Emirates, Schneider Electric et Wendy's - s'appuient sur SnapLogic pour automatiser les processus métier, accélérer l'analyse et favoriser la transformation numérique. Pour en savoir plus, rendez-vous sur snaplogic.com.

Connectez-vous avec SnapLogic via notre Blog, Twitter, Facebook, ou LinkedIn.

Contacts presse :
Scott Behles
SnapLogic
[email protected]
+1 415-571-4462

Marnie Spicer
Kaizo pour SnapLogic
[email protected]
+44 (0) 20 3176 4723

Vous souhaitez plus d'informations ?

Nous contacter