Accueil Épisode 18

Podcast Episode 18

Les défis de l'IA, de l'IA générative et de l'IA responsable

avec Bill Wong, directeur de recherche principal - IA et analyse de données chez Info-Tech Research Group

Vous souhaitez garder une longueur d'avance dans le monde en constante évolution de l'IA ? Dans cet épisode, Bill et Dayle discutent de l'IA responsable et des défis de l'autogouvernance dans l'entreprise. Ils explorent également les innovations à venir les plus intéressantes dans le domaine de l'IA, de la réalisation de films personnalisés à la création de groupes mondiaux chargés d'établir des règles et des responsabilités en matière d'IA éthique.

Transcription complète

Dayle Hall : 

Bonjour, vous écoutez notre podcast, Automating the Enterprise. Je suis votre hôte, le CMO de SnapLogic, Dayle Hall. Ce podcast est conçu pour donner aux organisations les idées et les meilleures pratiques sur la façon d'intégrer, d'automatiser et de transformer leur entreprise.

Notre invité d'aujourd'hui a une grande expérience de travail avec certains des plus grands noms de l'industrie technologique, comme IBM, Microsoft, Dell, Oracle, vous savez, ces petites entreprises que nous avons tous vues un million de fois. C'est un leader d'opinion très respecté et un contributeur essentiel à la recherche sur l'IA. Nous avons l'honneur d'organiser notre podcast aujourd'hui autour de Bill Wong, responsable de l'IA et de l'analyse des données chez Infotech Research Group. Bill, bienvenue dans l'émission.

Bill Wong :

Merci, Dayle. C'est un plaisir d'être ici.

Dayle Hall :

Je pense qu'il est toujours bon de donner aux gens un petit aperçu de leur parcours, de la manière dont ils sont devenus directeurs de recherche, de ce qui les a amenés à s'intéresser à l'IA. Tout le monde a des antécédents différents. Mais donnez-nous un peu de contexte, donnez-moi les grandes lignes de votre carrière et comment vous êtes arrivé là où vous êtes aujourd'hui.

Bill Wong :

Cela remonte à l'époque de l'université. J'étais étudiant en mathématiques pures et j'étais fasciné par la manière d'optimiser les algorithmes à l'époque. J'ai pris des cours d'informatique et j'ai détesté ça. Je ne voulais tout simplement pas coder. Je me suis donc lancé dans les affaires, j'ai suivi un MBA et j'ai rejoint IBM. Tous mes rôles étaient des rôles de type données. J'ai passé beaucoup de temps dans le développement. J'étais en quelque sorte la personne de référence pour les briefings exécutifs. Et j'ai eu l'occasion de rencontrer de nombreux clients du monde entier. Ensuite, j'ai voulu travailler avec une technologie plus omniprésente, je suppose, et je suis allé chez Microsoft pour travailler sur leurs offres de big data. Et après Microsoft, je suis allé chez Oracle pour travailler sur leurs systèmes de données de sortie ou d'analyse.

Puis Dell m'a proposé de diriger leur pratique en matière d'intelligence artificielle. C'est ce que j'ai fait pendant les cinq dernières années. C'était très bien, c'était la meilleure solution. Dell a joué franc jeu avec tout le monde. Je n'avais pas à dire, hé, IBM est le meilleur ou Microsoft est le meilleur. Je pouvais choisir ce qui était le mieux pour le client. Et maintenant, Infotech. Encore une fois, je suis très agnostique et je me concentre sur des solutions que les clients peuvent déployer en fonction de leurs besoins spécifiques.

Dayle Hall :

C'est une bonne chose, car ce que j'apprécie dans votre parcours, c'est que vous avez été du côté des vendeurs et que vous conseillez maintenant beaucoup les clients. Vous avez un bon bagage, vous avez vu les deux côtés de l'équation. Dans d'autres podcasts, tous ceux à qui nous avons parlé et qui sont passés par l'IA, c'est surprenant, tout le monde a une façon différente - presque différente - de faire les choses. Nous avons eu des ingénieurs en logiciel, des professionnels des mathématiques comme vous. Nous avons même rencontré quelqu'un qui est passé par les RH. Il s'occupe de l'IA pour l'analyse des personnes, etc. J'aime cette expérience parce qu'elle nous donne une perspective différente. Vous êtes manifestement beaucoup plus intelligent que moi en ce qui concerne les mathématiques.

Continuons donc. Nous avons trois sections différentes dont je vais parler. Tout d'abord, nous allons commencer par travailler sur les défis communs de l'IA. Ensuite, nous aborderons probablement le sujet le plus brûlant du jour, à savoir l'IA générative. Je ne sais pas quand ce podcast sera publié, mais tout le monde aura certainement entendu parler de ChatGPT et de toutes ses nouvelles incarnations. Je suis donc impatient d'en savoir plus. Et nous parlerons de l'IA responsable à la fin.

Commençons donc par deux ou trois choses sur lesquelles vous travaillez en ce moment. Quels sont vos projets en cours ? Quels sont les grands projets sur lesquels vous travaillez avec certains de vos clients ?

Bill Wong :

Comme vous l'avez mentionné, l'IA générative suscite beaucoup d'intérêt. Nous travaillons donc avec un certain nombre de clients qui nous demandent de les aider à élaborer leur stratégie en matière d'IA. Mais avec l'IA générative, ils sont en quelque sorte confrontés à la réalité. Et ce que je vois en ce moment, c'est que le président de l'entreprise demande aux informaticiens s'ils peuvent utiliser cela aujourd'hui. Il y a tellement de battage médiatique.

Ce sur quoi je travaille en ce moment, c'est qu'il existe beaucoup d'informations intéressantes pour aider les clients à gérer le changement. Ce que j'ai essayé de faire, c'est de prendre le meilleur des courbes de maturité existantes. Ce n'est pas que ce soit totalement nouveau, mais je pense que l'idée de l'IA générative amène les gens à se demander si c'est légal, si c'est éthique. C'est pourquoi j'espère que, lorsqu'ils visitent notre site web, ils peuvent voir la courbe de maturité que nous présentons à nos clients.

Ce qui est différent, c'est l'axe de la maturité. La plupart des entreprises se concentrent d'abord sur la question de savoir si cela peut fonctionner. Elles sont très axées sur la technique. Avons-nous les bonnes données ? Avons-nous le bon modèle ? Avons-nous la bonne infrastructure ? Quelle est la performance de notre prédiction, etc. Naturellement, vous essayez simplement de faire en sorte que cela fonctionne. Mais avec le temps, les gens se sentent plus à l'aise et ont plus de succès - et d'ailleurs, on peut gagner beaucoup d'argent en se concentrant uniquement sur l'aspect technique. Mais à mesure que la technologie devient plus omniprésente, les gens se demandent si leur algorithme est juste. Les données que je vous fournis sont-elles privées ? C'est ce type de questions que la communauté de l'IA appelle généralement l'IA fondée sur des principes. Ce que je veux faire, c'est mettre les gens devant leur porte et leur dire que lorsqu'ils envisagent l'IA, ils doivent commencer à penser aux principes dans le cadre de leur maturité.

Dayle Hall :

Nous sommes dans un podcast, donc les gens écoutent. Nous allons essayer de faire en sorte que si vous regardez ce podcast, vous trouviez un moyen de trouver le modèle de maturité dont parle Bill. Mais imaginez simplement qu'il s'agit d'un parcours allant d'une approche centrée sur la technologie à une approche fondée sur des principes, comme l'a mentionné Bill. Au fil du temps, vous évoluez le long d'une courbe en S aplatie qui va de l'exploration à l'incorporation. Puis, très rapidement, après la prolifération, on arrive à l'optimisation. Enfin, le dernier élément, qui est un peu plus long, est la véritable transformation.

Pourriez-vous nous décrire, Bill, certains de ces voyages initiaux ? Que signifient l'exploration et l'incorporation ? Et ensuite, allons jusqu'à la transformation. Quel est un véritable exemple de transformation dans le cadre de votre modèle de maturité ?

Bill Wong :

Je consacre encore beaucoup de temps à l'exploration. Les centres de recherche hospitaliers, les universités, reçoivent des graphiques. Ils essaient de déterminer si l'on peut faire cela avec l'équipement existant ou si l'on a besoin d'accélérateurs d'IA spécialisés. Ou avons-nous besoin d'accélérateurs d'IA spécialisés pour y parvenir ? Dans un monde parfait, vous auriez les accélérateurs d'IA, certains particulièrement plus difficiles ou surtout avec des milliards de points de données. Oui, vous ne pouvez pas faire cela avec votre infrastructure de serveur typique. Je passe donc beaucoup de temps à leur expliquer les meilleures pratiques concernant l'infrastructure matérielle requise et les logiciels qu'ils peuvent choisir pour développer leurs modèles.

C'est ce qu'il faut faire en grande partie. Et puis l'incorporation, c'est généralement les aider à développer un POC basé sur le type de prédictions que nous voulons que ce modèle fasse. Comme vous pouvez l'imaginer, la plupart des gens commencent ensemble. Proliférer. Il existe un certain nombre de grandes entreprises qui ont toutes adopté l'IA.

Lorsque l'on passe à l'optimisation et à la transformation, c'est là que beaucoup d'entreprises s'effondrent, parce que c'est là que nous devenons plus principaux et que nous pensons à des choses comme si, pour ces décisions financières importantes, je veux m'assurer qu'une banque prend une décision impartiale sur la question de savoir si cette personne devrait obtenir un prêt ou non. Il faut donc demander au modèle de me dire comment il est parvenu à cette décision.

L'explicabilité ou la transparence sont des éléments qui, il y a quelques années, n'étaient pas vraiment pris en compte par la plupart des gens. C'est en quelque sorte le défi à relever, surtout si l'on utilise des algorithmes non supervisés. Je pense que la littérature se concentre davantage sur ce point, mais elle n'est pas encore développée. Si je demande aux gens quels outils ils utilisent pour des choses comme la classification des données, comment ils gèrent la confidentialité des données, ce sont des questions auxquelles ils ne pensent pas vraiment. Ils se préoccupent seulement de faire fonctionner le modèle. Faisons-le avant. Aujourd'hui, vous me demandez comment préserver la confidentialité des données, comment m'assurer de la transparence de mes décisions. Ce domaine est donc en pleine expansion. C'est encore un peu comme le Far West.

Pour ce qui est de la transformation, je dirais qu'un certain nombre d'entreprises sont excellentes dans ce que j'appelle l'IA d'abord. Tout est axé sur l'apport de valeur à leurs clients grâce à la technologie de l'IA. Mais le font-elles aussi avec des principes directeurs de responsabilité ? Et c'est difficile. Lorsque je présente cette question, les grandes entreprises, auxquelles je tire mon chapeau, ont toutes commis des erreurs spectaculaires. Vous pouvez jeter un coup d'œil à toutes les grandes entreprises technologiques, et toutes disent, d'accord, c'est comme ça qu'il faut faire. Mais elles ont toutes commis des erreurs spectaculaires. Je ne vais pas les nommer, mais tout le monde a entendu parler d'entreprises qui utilisent l'IA pour examiner des CV et qui, tout à coup, s'aperçoivent qu'elle est très partiale.

Et vous pensez que c'est tellement évident. Mais encore une fois, les gens sont tellement concentrés sur le fonctionnement du modèle qu'ils oublient ces principes. Et personne n'est à l'abri de cela. Il faut vraiment que quelqu'un y pense dès le départ.

Dayle Hall :

Oui, c'est vrai. Et j'aime bien cela. J'ai fait un podcast avec quelqu'un du secteur des ressources humaines, comme je l'ai mentionné, et nous avons beaucoup parlé des préjugés, en particulier dans le secteur des ressources humaines. Et si vous avez des préjugés, l'IA n'y remédie pas. Elle l'élabore presque un peu plus.

Vous avez dit quelque chose de très intéressant. Je n'avais jamais entendu parler d'algorithmes non étayés de cette manière. Beaucoup de gens ont parlé de l'explicabilité et de la transparence de l'IA, mais qu'entendez-vous précisément par algorithmes non étayés ?

Bill Wong :

Je veux dire sans surveillance.

Dayle Hall :

Non supervisé.

Bill Wong :

Il y a l'apprentissage supervisé, où les humains aident à former tous les algorithmes. Dans le cas de l'apprentissage non supervisé, on laisse les algorithmes prendre une décision par eux-mêmes. Il leur est difficile d'expliquer comment ils sont parvenus à cette décision. L'exemple est donc le suivant, et l'on pourrait dire que le traitement basé sur l'image est généralement effectué avec des algorithmes non supervisés. C'est ainsi que l'on peut distinguer un chien d'un chat. Avez-vous vraiment besoin de savoir comment cela a été fait ? Est-ce vraiment important ? Beaucoup diront que non, du moment que c'est très fiable, et cela leur convient. Mais pour des questions comme celle de savoir si une personne doit être approuvée par une banque, combien elle doit payer pour une assurance, ce genre de questions, les gens exigent presque un certain niveau de transparence pour que la décision soit totalement impartiale.

Dayle Hall :

Ce qui me réjouit toujours lorsque je parle à des personnes qui influencent les entreprises et les gens autour de cette croissance, c'est que nous n'en sommes qu'aux balbutiements de l'IA. Je suis très encouragé car je crois que les gens essaient de faire ce qu'il faut. Ils essaient d'agir de manière responsable. Dans l'un des podcasts que nous avons eus récemment, j'ai parlé du fait que l'IA n'est pas la même chose que les médias sociaux lorsque les sites de médias sociaux ont commencé à être touchés. Mais j'ai l'impression que nous nous sommes vraiment heurtés à des murs et que nous avons rencontré des problèmes majeurs avant que les sites de médias sociaux ne disent : "D'accord, nous devons faire quelque chose à ce sujet". J'ai l'impression que les personnes impliquées dans l'IA ont un peu plus de prudence ou un peu plus de responsabilité pour s'assurer que nous faisons les choses correctement. Ce n'est que mon avis. Je ne sais pas si vous êtes du même avis.

Bill Wong :

Je partage ce sentiment. C'est une bonne chose qu'il y ait ce niveau de sensibilisation et que les gens sachent que c'est important. Le défi consiste à le mettre en œuvre, ce qui nous ramène à la courbe de maturité et à l'IA responsable. Je pense que tout le monde doit essayer de faire ce qu'il faut. Il ne faut pas s'attendre à ce que des lois viennent régir tout cela. Et pour ce qui est des grandes entreprises technologiques, certaines d'entre elles y pensent, mais en général, les grandes entreprises technologiques peuvent se gouverner elles-mêmes, pour le dire poliment. Elles embauchent des gens qui sont bons en vente, bons en programmation. Elles n'embauchent pas de personnes qui pensent aux implications sociales. C'est pourquoi Facebook ou Meta sont une cible facile pour dire ce qui ne va pas, parce qu'ils n'ont tout simplement pas les bonnes personnes pour prendre ces décisions. Je pourrais continuer ainsi longtemps, mais je pense que les grandes entreprises technologiques seraient d'accord pour dire qu'elles ne sont pas les mieux placées pour cela. Nous devons donc prendre nos responsabilités nous-mêmes.

Et qu'ils le veuillent ou non, s'ils ne font pas du bon travail dans ce domaine, les gouvernements s'inclineront. Ils seront à la traîne, bien sûr, mais ils interviendront avec un objet très contondant et diront, hé, cela n'a pas d'importance si nous allons étouffer l'innovation. Il y a tout simplement trop de mauvais acteurs, de mauvais comportements. Nous intervenons. C'est l'inconvénient si nous ne faisons rien nous-mêmes.

Dayle Hall :

Oui, je suis d'accord. Avant d'aller plus loin, je voulais vous poser quelques questions. Nous avons un peu parlé des défis liés à l'intégration de l'IA dans une organisation, et vous avez parlé des endroits où vous avez travaillé et de certains de vos clients. J'aimerais vous poser quelques questions spécifiques. Nous avons mené une enquête sur la façon dont les employés perçoivent l'IA. Je ne vais pas passer en revue toute l'enquête. J'ai deux questions en particulier. La première est qu'environ 70 % des personnes interrogées ont déclaré qu'elles pensaient que leur entreprise, leur société, était ouverte et avait la bonne culture pour être prête à intégrer l'IA dans l'entreprise. Mais seulement un tiers d'entre eux pensent qu'ils ont les compétences ou les capacités nécessaires pour la mettre en œuvre de la bonne manière et en tirer le meilleur parti.

La plupart d'entre nous pensent donc que nous sommes prêts, mais seule une petite partie d'entre nous pense que nos entreprises sont prêtes à s'attaquer à ce problème. Lorsque vous discutez avec vos clients, est-ce une chose qui résonne en vous ? Le voient-ils ? Ne le voient-ils pas ? Comment leur conseilleriez-vous de se préparer ou d'être dans la meilleure position possible, en particulier en ce qui concerne l'ensemble des compétences, s'ils envisagent de recourir à l'IA ?

Bill Wong :

J'ai le même point de vue. Je l'ai constaté. Et j'espère que lorsqu'ils disent que la culture est prête, cela signifie qu'ils ont une culture axée sur les données, que les données sont traitées comme un atout qui les aide à prendre de meilleures décisions. Et j'ai vu des entreprises faire des choses innovantes. Un centre de recherche hospitalier a embauché un physicien, l'a laissé se familiariser avec les algorithmes et a fait de lui son propre data scientist. Je suis optimiste parce que de plus en plus d'outils sont disponibles - il n'est pas nécessaire d'être un développeur. C'est une approche sans code. Je pense que cela contribuera à diminuer, sans éliminer, mais en diminuant les défis liés à l'acquisition de compétences. Vous avez toujours besoin de personnes qualifiées, espérons-le, dans ce secteur. Mais oui, c'est un peu un obstacle.

Je pense que l'IA générative réduit considérablement cet obstacle. Je m'attends donc à voir apparaître un grand nombre d'outils innovants qui ne nécessiteront pas d'être un data scientist ou un programmeur Python.

Dayle Hall :

Oui, bien sûr. La deuxième question que j'avais à propos de l'enquête - nous avons demandé aux gens quels étaient, selon eux, les principaux avantages. Environ la moitié des personnes interrogées ont répondu qu'elles pensaient que cela leur ferait gagner du temps. Un peu moins de la moitié ont dit qu'ils pensaient aussi que cela améliorerait la productivité. Enfin, environ un tiers des personnes interrogées ont déclaré qu'elles réduiraient les risques ou les erreurs dans leur travail. Ma question est donc la suivante : les entreprises pensent que l'informatique peut faire quelque chose, et elles aimeraient probablement qu'elle fasse quelque chose. Lorsque vous vous adressez à vos clients, ou d'après votre expérience avec les entreprises pour lesquelles vous travaillez, que leur conseillez-vous pour fixer d'abord les bons objectifs ? Est-ce qu'ils viennent vous voir avec ce genre de choses, comme ce que nous voulons faire, nous voulons améliorer la productivité ? Ont-elles des cas d'utilisation spécifiques ? Comment vous approchent-ils ? Que cherchent-ils à tirer de l'utilisation potentielle de l'IA ?

Bill Wong :

La valeur la plus importante que je puisse apporter est de les aider à développer une stratégie pour l'IA. Et avec n'importe quel type de technologie perturbatrice, vous avez vraiment besoin d'une stratégie d'entreprise. Il ne s'agit pas d'une technologie autonome en silo, que les informaticiens peuvent utiliser. Il faut que le secteur d'activité ou les parties prenantes de l'entreprise se demandent quelle est la mission de l'entreprise et comment l'IA s'aligne sur cette mission. Sommes-nous une entreprise connue pour son sens de l'innovation ? Alors, oui, l'IA peut être utilisée pour augmenter leur travail, les rendre plus productifs. Sommes-nous une entreprise qui considère que le coût le plus bas est la meilleure chose que nous puissions faire pour nos clients ? Dans ce cas, l'IA est probablement là pour automatiser les choses, parfois pour remplacer beaucoup de choses que les humains font. Tout commence donc par la stratégie et le point de vue de l'entreprise. Une fois cette stratégie mise en place, il reste à savoir comment l'utiliser et quelles sont les politiques qui en découlent.

Dayle Hall :

C'est vrai. Non, c'est une bonne chose. Encore une fois, je pense qu'il y a beaucoup d'enquêtes de ce type. Mais ce qui est intéressant pour moi, c'est d'avoir votre point de vue parce que je pense que vous participez probablement à un plus grand nombre de ces conversations dans différentes entreprises. Vous apportez donc une perspective unique. Y a-t-il un projet sur lequel vous avez travaillé récemment et qui s'inspire de certains des conseils que vous avez donnés sur les avantages pour l'entreprise ? Vous n'avez pas besoin de citer de noms, mais vous avez pu montrer que l'IA les a vraiment aidés en tant qu'organisation, qu'il s'agisse d'exploration ou de prolifération, jusqu'à la transformation. Il n'est pas nécessaire de tout dire, mais pouvez-vous donner quelques exemples pour que les auditeurs puissent se dire, ah, c'est un projet que je pourrais faire, ou notre entreprise pourrait potentiellement faire ce genre de chose ?

Bill Wong :

Je citerai un établissement de l'Université de la Colombie-Britannique. Elle dispose d'un groupe de chercheurs. Il y a quelques années, nous avons connu ce qu'on appelle une pandémie.

Dayle Hall :

J'en avais entendu parler.

Bill Wong :

Ils ont été chargés de créer de nouvelles thérapies ou de nouveaux traitements. Si vous travaillez dans le domaine de la découverte de médicaments, c'est un environnement extrêmement complexe où des centaines de candidats médicaments sont examinés chaque année. Et il se peut que vous obteniez un nouveau médicament après 10 ans et 3 milliards de dollars de recherche. Voilà donc le type de pipeline. Et la façon dont ils voulaient avoir un impact et faire bouger l'aiguille était de savoir si nous pouvions le faire plus rapidement. Si vous avez suivi une grande partie de la recherche sur le COVID en tant que virus, une grande partie de la recherche a été consacrée à la manière d'annuler l'action de rendre le virus actif. Il existe un domaine d'étude appelé l'arrimage moléculaire. Si vous pensez à la navette spatiale comme analogie, lorsque nous mettons en place la navette spatiale pour le laboratoire, lorsqu'ils se rencontrent avant que les astronautes puissent se rendre à la station spatiale, ils doivent s'amarrer, et cet amarrage leur permet d'entrer dans le véhicule.

Lorsqu'il s'agit de virus, ce que l'on veut, c'est avoir une molécule qui s'arrime au virus et annule son activité, c'est ce que l'on appelle l'arrimage moléculaire. La difficulté réside donc dans le fait qu'il y a des milliards de molécules à tester. Les chercheurs ont donc pris les programmes d'amarrage les plus courants, qui prédisent en quelque sorte la capacité d'une molécule à annuler l'activité d'un virus. Ils ont calculé que la puissance de calcul était insuffisante. Même s'ils disposaient de toute la puissance de calcul nécessaire, il faudrait des années pour faire tout cela. L'idée était donc d'utiliser l'apprentissage profond pour prédire les scores d'amarrage, car l'amarrage est une activité très gourmande en ressources informatiques. Il y a des tonnes de cours pour faire cela. À l'époque où 40 milliards était un chiffre important - je pense que c'est encore un peu important, mais c'est ce que nous avons fait, 40 milliards. Nous avons donc utilisé l'apprentissage profond pour dire que nous allons le prédire. Nous n'allons pas effectuer physiquement les simulations. Nous allons simplement utiliser des algorithmes d'apprentissage profond de l'IA pour prédire cela.

En procédant de la sorte, ils ont pu créer assez rapidement une sorte de liste finie de molécules à tester pour voir si elles sont viables contre le virus. Le magazine Nature, une revue scientifique très respectée, a été le premier à publier ces résultats, et peu à peu, de plus en plus de chercheurs ont commencé à utiliser cette technique, qu'ils appellent deep docking, un hybride d'ancrage moléculaire et d'apprentissage en profondeur.

J'en suis le plus fier parce que lorsque je parle à des personnes qui font de l'IA dans le domaine des sciences de la vie, je pense que nous avons tous l'impression d'essayer de faire une différence dans la vie des gens. Il ne s'agit pas seulement de gagner de l'argent. Je suis sûr que les gens peuvent gagner de l'argent, bien sûr, grâce aux médicaments, et il est certain qu'ils devraient être rémunérés. Mais je pense que la majorité des personnes avec lesquelles je travaille ont le sentiment de faire une différence, ou du moins d'essayer de faire une différence dans la vie des gens. Ils ont eu la gentillesse de m'inclure en tant qu'auteur contributeur. Pour moi, c'est l'un des points forts, j'ai vraiment apprécié ce projet.

Dayle Hall :

Oui, non, c'est très bien. Nous en avons parlé un peu plus tôt. Nous avons mentionné que je ne pense pas que les entreprises elles-mêmes - elles n'ont pas de mauvaises intentions. Mais j'aime bien entendre parler de choses comme ça, de l'utilisation de l'IA pour la recherche médicale. J'espère que ce sera quelque chose qui rendra le monde meilleur. Je sais que cela ressemble un peu à la maternité et à la tarte aux pommes, mais si quelque chose peut, si quelque chose peut, rendre le monde meilleur. Mais si quelque chose peut le faire, si quelque chose peut le faire, c'est à cela qu'il faut l'utiliser. J'ai un enfant de 12 ans et un autre de 15 ans, et nous voulons espérer laisser le monde dans un meilleur état de toutes les façons possibles. Et c'est un aspect intéressant de la question.

Cela nous amène à l'un des sujets les plus brûlants de la journée, à savoir l'IA générative et, bien sûr, ChatGPT, dont ma fille de 15 ans au lycée m'a demandé si elle devait l'utiliser pour ses devoirs, ce à quoi j'ai répondu que je ne savais pas encore quels étaient les principes de l'école. J'ai répondu que je ne savais pas encore quels étaient les principes de l'école, mais que c'était une aide, pas une solution. Il ne doit pas faire le travail à votre place. Vous devez quand même comprendre. Nous verrons ce qu'il en est.

Mais avec cela et l'avènement d'autres plateformes d'IA, quelles sont les choses qui, selon vous, devraient être utilisées aujourd'hui ? Et qu'attendez-vous dans un avenir proche ? Quelles sont, selon vous, les possibilités d'un outil comme ChatGPT ?

Bill Wong :

Je suis très enthousiaste à l'idée de la possibilité d'une IA générative, ou d'apporter ce type de pouvoir créatif aux masses. Comme beaucoup de gens, je passe beaucoup de temps à essayer de tromper le système, à voir où il tombe. Mais je pense qu'avec le temps, il va continuer à s'améliorer.

Je pense que les cas d'utilisation normaux pour lesquels vous voyez l'IA, vous allez voir l'IA générative y contribuer également. Je pense que le point d'entrée sera plus facile. Comme je l'ai mentionné précédemment, l'obtention de données est un problème universel que j'ai constaté. Mais que se passe-t-il si vous pouvez demander au système de générer des données synthétiques pour tester votre modèle ? Cette barrière, disons, a certainement réduit les questions sur la qualité des données synthétiques. Mais encore une fois, je pense qu'avec le temps, la prolifération de cette technologie est vraiment prometteuse.

C'est là que les conseils comme l'éducation, nous parlions en ce moment même à des institutions qui sont en difficulté. Elles essaient de savoir ce qu'elles doivent faire. Certaines l'interdisent totalement. Vous ne pouvez donc pas l'utiliser. À long terme, l'interdiction d'une technologie ne fonctionne généralement pas. Les gens trouveront des solutions de rechange. Les établissements d'enseignement vont être amenés à transformer leur façon d'enseigner. Peut-être un peu plus à l'ancienne, mais en parlant aux gens, en leur demandant de communiquer, en petits groupes, ce qu'ils peuvent faire sur place sans avoir accès à un quelconque ordinateur plateforme. Car c'est ce qu'ils feront dans la vie réelle.

Dayle Hall :

Vous l'avez mentionné. Je ne pense pas qu'arrêter ou interdire l'innovation - que cela nous plaise ou non, elle trouvera son chemin. Elle trouvera son chemin. Et cela nous ramène à ce dont nous avons parlé plus tôt, Bill, à savoir que nous devrions tous être responsables. Nous devrions tous comprendre que nous avons chacun un certain niveau de responsabilité. Il ne s'agit pas seulement de dire que tous les établissements d'enseignement supérieur doivent mettre en place des politiques, l'interdire ou savoir comment l'utiliser. Nous devrions tous l'utiliser à bon escient. Et je pense que si nous pouvons agir de cette manière - comme vous l'avez dit, les grandes entreprises font des erreurs. Nous allons tous commettre des erreurs. Certains établissements d'enseignement supérieur vont commettre des erreurs. Mais je pense que ce n'est pas grave.

En dehors de l'enseignement supérieur, voyez-vous une industrie spécifique, que nous appelons solutions verticales, ce genre de choses, une industrie spécifique qui s'approprie vraiment ce concept et le fait progresser ? De toute évidence, les entreprises technologiques se sont emparées du sujet assez rapidement. J'ai commencé à recevoir des courriels de représentants en développement des ventes qui m'envoient un courriel disant que nous sommes le Chat GPT du pipeline des ventes. Je leur réponds : " Arrêtez, arrêtez, arrêtez. Nous n'avons pas besoin du lavage ChatGPT. Mais en dehors des entreprises technologiques, qui, selon vous, pourrait avoir le potentiel de faire avancer les choses ?

Bill Wong :

Je pense que les fruits les plus faciles à cueillir pour les industries sont ceux qui sont basés sur le texte. C'est le plus facile. Il y en a d'autres, comme la vidéo basée sur l'image. Ce sont certainement des choses puissantes, mais je pense que le plus facile est le texte. C'est le cas par exemple des entreprises que vous engagez pour créer, disons, des textes de marketing, des descriptions de nouveaux produits. ChatGPT pourrait faire le travail de 100 personnes. Il n'est plus nécessaire que ce genre de tâches soit effectué par des humains, du moins. Dans la veine des technologies lourdes, j'ai commencé à voir des cabinets d'avocats s'intéresser de près à cette technologie, et donc à la formation. Vous pouvez adapter, disons, ChatGPT en amont avec un persona que vous pouvez créer et qui comprend le jargon juridique. Il faut donc s'attendre à ce que le balayage se fasse aussi.

Tout type de recherche, même dans ma profession, fait l'objet de débats : pourquoi engager un analyste si je peux tout obtenir de ChatGPT ? Mais le risque et le défi sont toujours là, car il faut vérifier ces informations. Elles proviennent toutes d'Internet. Nous savons que beaucoup d'entre elles sont biaisées, inexactes. Nous avons des gens pour vérifier cela. L'espace technologique est le type d'industrie que l'on adopte de plus en plus. Les journaux ont commencé à s'y intéresser, les gens écrivent les blogs des autres, etc.

Dayle Hall :

Oui, je pense que nous avons essayé plusieurs choses, comme les blogs et leur fonctionnement. Il faut absolument plus de spécificité. Il faut une personne responsable. En effet, tout peut se ressembler, parce que, théoriquement, tout sera identique puisque cela provient de la même source. Il y a donc très peu de différenciation si l'on procède de cette manière. Mais il y a certainement des tonnes d'avantages à en tirer. Il sera donc intéressant de voir où cela nous mènera.

Par la suite, parlons un peu de l'IA responsable. Nous avons parlé un peu plus tôt, nous avons déjà mentionné quelques points concernant l'explicabilité et la transparence de l'IA en général. Je crois que j'ai dit le mauvais mot, algorithmes non supervisés.

Bill Wong :

Il s'agit d'un type d'algorithme d'IA. Les bases de l'IA responsable que nous avons vues - il y a beaucoup d'organisations à but non lucratif, d'initiatives gouvernementales, et elles se sont regroupées autour de six thèmes principaux. Ainsi, lorsque nous parlons aux clients de ce que nous avons évoqué à propos de la protection de la vie privée, l'algorithme respecte-t-il la confidentialité des données et la vie privée des personnes ? L'algorithme est-il juste, impartial ? Ensuite, vous avez mentionné l'explicabilité, la transparence.

Les trois dernières concernent le système que vous construisez : est-il sûr, sécurisé ? On parle parfois de robustesse. Et puis la gouvernance, la gouvernance de vos données, la gouvernance de votre modèle. Enfin, le dernier point, très important, est la responsabilité. Même si vous pouvez simplement déployer cela et dire, hé, c'est juste l'algorithme, quelqu'un, quelque part, une organisation doit être identifiée comme, hé, si quelque chose ne va pas, il y a une erreur. C'est à cette organisation qu'il faut s'adresser pour assumer la responsabilité de ces actions.

Certains secteurs, comme les soins de santé ou le secteur juridique, peuvent avoir des problèmes de conformité beaucoup plus importants, qui relèvent du domaine de l'IA responsable. Mais c'est la base que nous considérons comme commune, quel que soit le secteur d'activité.

Dayle Hall :

Sans donner de noms, lorsque vous parlez à des clients, ou lorsque vous faites ce genre de travail dans les organisations de fournisseurs, le concept d'IA responsable est-il abordé de manière proactive ? Entendez-vous des choses qui vous obligent à dire : "Écoutez, nous devons réfléchir à la manière dont nous l'utilisons de cette façon" ?

Et encore une fois, ce dont nous avons parlé plus tôt, c'est que les entreprises et les personnes qui y travaillent ont du mal à s'autogérer pour ce genre de choses. Je ne dis donc pas que tout le monde doit être au courant, mais avez-vous l'impression que vous devez toujours faire ces remarques lorsque vous parlez à vos clients ?

Bill Wong :

Je pense que c'est le dernier cas. Je ne pense pas que ce serait un monde agréable, que tout le monde se rende compte que c'est ce qu'il y a de mieux pour le client et pour l'entreprise. Mais si je devais être totalement honnête, certaines personnes, lorsque vous prononcez le mot éthique ou principes, pensent que cela va ralentir l'innovation, que cela va ralentir l'adoption. Certains. Mais je suis optimiste : grâce à l'éducation, il y a un argument commercial en faveur de ces principes, et si vous ne le faites pas, c'est mauvais pour les affaires, et à long terme, il est dans votre intérêt d'adopter ces principes.

Dayle Hall :

Oui, non, je pense que c'est juste, parce qu'il s'agit en grande partie de nouvelles innovations et de choses que nous n'avons pas nécessairement expérimentées. Je ne m'attends pas à ce que tout le monde sache tout ce qu'il faut faire avec l'IA éthique ou s'assurer qu'elle est responsable. Je suis plus encouragé par le fait que des gens comme vous et quelques autres sommités de l'IA avec qui nous avons parlé dans ce podcast, y pensent et essaient de s'assurer - il y en a un avec qui nous avons parlé récemment, ils créent des groupes mondiaux, où nous, les gens, sommes ceux qui discutent de ce que ces règles et ces responsabilités devraient être. Je pense que c'est une excellente chose. Nous devrions être impliqués dès le départ.

Lorsque vous allez dans vos organisations, les questions que vous leur posez, leur donnez-vous d'emblée les principes ? Ne présumez-vous pas et ne dites-vous pas simplement SnapLogic ? Quelles sont les questions que nous devrions nous poser lorsque nous commençons à utiliser l'IA ?

Bill Wong :

Ayez une stratégie commerciale pour l'IA et choisissez ensuite vos principes directeurs pour aller de l'avant. Cela vous guidera dans le choix de la technologie et vous permettra, lorsque vous développerez le modèle, de tenir compte de ces principes. Vous voulez donc vous assurer que lorsque vous obtenez des données, vous vous préoccupez de choses telles que le lignage des données, de sorte que vous sachiez d'où viennent les données, de sorte que si quelqu'un demande s'il s'agit de données dignes de confiance, si elles sont impartiales, vous choisissez des outils qui peuvent aider à renforcer et à mettre en œuvre les principes que vous avez adoptés.

Dayle Hall :

Oui, c'est vrai. Non, c'est intéressant. D'accord, dernière question pour conclure le podcast. Quelle est la chose la plus innovante ou la plus excitante que vous attendez ou attendez avec impatience au cours des deux ou trois prochaines années dans ce domaine spécifique ? Il peut s'agir de quelque chose de pratique ou de totalement visionnaire. Mais au moment où nous quittons le podcast, qu'est-ce que Bill attend avec impatience et qui pourrait arriver sur nos écrans d'ici peu ?

Bill Wong :

Il est possible - d'accord, c'est juste mon propre désir de la technologie. Je pense que tout le monde aime les belles histoires, mais qu'il est difficile de les formuler. Cette technologie permet de dire, disons, que je veux créer mon propre film Star Trek. Je veux de nouveaux vaisseaux dans la veine de Starfleet. Vous définissez les personnages, vous définissez l'intrigue. Et vous pourriez demander au logiciel de créer cela. Pour moi, ce serait juste ma ligne. Et je pense que les éléments de base sont là jusqu'à ce que nous ayons nos holodecks. Mais oui.

Dayle Hall :

Je veux toujours que ce soit Jean-Luc Picard. Alors peut-être que je pourrais l'être - avec un peu plus de cheveux, j'espère. Mais en général, je pense que ce serait génial de voir quelque chose comme ça se réaliser. Encore une fois, je regarde ces choses et je pense à mes enfants de 12 et 15 ans, quand ils commenceront à travailler, peu importe ce qu'ils feront, mais dans quel monde ils arrivent avec certaines de ces possibilités maintenant.

Bill Wong :

Je les envie un peu. Mais j'espère que nous serons encore là pour en voir beaucoup. Et je pense que l'avenir ne sera pas si lointain.

Dayle Hall :

Je l'espère aussi. Eh bien, Bill, merci beaucoup. J'apprécie que vous participiez à ce podcast aujourd'hui. Encore une fois, j'adore ces discussions. Cela me sort de mon quotidien qui consiste à essayer de vendre des logiciels aux gens et à commercialiser des logiciels. J'apprécie donc beaucoup. Bill, merci beaucoup d'avoir participé au podcast aujourd'hui.

Bill Wong :

Merci, Dayle. Merci beaucoup. Et si vous avez des questions, n'hésitez pas à nous contacter.

Dayle Hall :

Nous veillerons à ce que vos contacts soient diffusés lorsque nous mettrons cette émission en ligne. Merci à tous d'avoir écouté ce dernier podcast d'Automating the Enterprise. Nous vous donnons rendez-vous au prochain épisode.