Home Episodio 18

Podcast Episodio 18

Sfide con l'IA, IA generativa e IA responsabile

con Bill Wong, Principal Research Director - AI e Data Analytics di Info-Tech Research Group

Volete essere all'avanguardia nel mondo in continua evoluzione dell'IA? In questo episodio, Bill e Dayle discutono di IA responsabile e delle sfide dell'autogoverno in azienda. Inoltre, esplorano le più interessanti innovazioni in arrivo nel campo dell'IA, dalla creazione di film personalizzati alla creazione di gruppi mondiali per stabilire regole e responsabilità per l'IA etica.

Trascrizione completa

Dayle Hall: 

Salve, state ascoltando il nostro podcast, Automatizzare l'impresa. Sono il vostro ospite, il CMO di SnapLogic, Dayle Hall. Questo podcast è stato ideato per fornire alle organizzazioni gli approfondimenti e le best practice su come integrare, automatizzare e trasformare la propria azienda.

Il nostro ospite di oggi ha una vasta esperienza di lavoro con alcuni dei più grandi nomi dell'industria tecnologica, come IBM, Microsoft, Dell, Oracle, insomma quelle piccole aziende che abbiamo visto tutti un milione di volte. È uno stimato key opinion leader e contribuisce in modo determinante alla ricerca sull'IA. È un onore avere oggi un podcast con Bill Wong, responsabile dell'IA e dell'analisi dei dati presso Infotech Research Group. Bill, benvenuto alla trasmissione.

Bill Wong:

Grazie, Dayle. È bello essere qui.

Dayle Hall:

Di solito, quando iniziamo, penso che sia sempre bene dare alle persone un po' di informazioni di base, come sei entrato in questo settore, come sei diventato direttore di ricerca, cosa ti ha portato all'IA. Ognuno ha un background diverso. Ma ci dia un po' di contesto, mi faccia un riassunto della sua carriera e di come è arrivato al punto in cui si trova oggi.

Bill Wong:

Risale ai tempi dell'università. Ero un laureato in matematica pura, all'epoca ero affascinato da come ottimizzare gli algoritmi. Ho frequentato informatica e l'ho odiata. Non volevo scrivere codici. Così sono entrato nel mondo degli affari, ho preso un MBA e sono entrato in IBM. Tutti i miei ruoli erano di tipo dati. Ho trascorso molto tempo nello sviluppo. Ero una specie di persona di riferimento per i briefing dei dirigenti. Ho avuto molte opportunità di incontrare clienti diversi in tutto il mondo. Poi ho voluto lavorare con una tecnologia più pervasiva, credo, e sono passato a Microsoft per lavorare sulle loro offerte di big data. E dopo Microsoft, sono passato a Oracle per lavorare sui loro sistemi di big exit data o di analisi.

Poi ho ricevuto un'offerta da Dell per dirigere la loro pratica AI. Ed è quello che ho fatto negli ultimi cinque anni. Ed è stato fantastico, il meglio della razza. Dell si è comportata bene con tutti. Non dovevo dire: "Ehi, IBM è la migliore o Microsoft è la migliore". Potevo scegliere ciò che era meglio per il cliente. E ora Infotech. Anche in questo caso, siamo molto agnostici e ci concentriamo su soluzioni che i clienti possono implementare in base a requisiti specifici.

Dayle Hall:

Bene, perché quello che mi piace del tuo background è che sei stato dal lato dei fornitori e ora ti occupi molto di consulenza ai clienti. Hai un buon background, hai visto entrambi i lati dell'equazione. In un paio di altri podcast, tutti quelli con cui abbiamo parlato che sono passati attraverso l'IA, è sorprendente, ognuno ha un modo diverso, quasi diverso. Abbiamo avuto ingegneri del software, professionisti della matematica come lei. C'è stato anche qualcuno che è arrivato solo attraverso le risorse umane. Si occupa di AI per l'analisi delle persone e così via. Mi piace il background perché ci dà una prospettiva diversa. È chiaro che lei è molto più intelligente di me per quanto riguarda la matematica.

Quindi andiamo avanti. Ho tre diverse sezioni di cui parlerò. La prima è che inizieremo a lavorare con le sfide comuni dell'IA. Poi affronteremo probabilmente l'argomento più scottante del giorno, ovvero l'IA generativa. Non so quando verrà pubblicato questo podcast, ma tutti avranno sicuramente sentito parlare di ChatGPT e di tutte le sue nuove incarnazioni. Quindi sono entusiasta di questo. E alla fine parleremo di IA responsabile.

Cominciamo con un paio di cose su alcune delle cose a cui state lavorando in questo momento. Quali sono i progetti in corso? Quali sono le grandi cose su cui sta lavorando con alcuni dei suoi clienti?

Bill Wong:

Come lei ha detto, c'è molto fermento per l'IA generativa. Stiamo lavorando con diversi clienti che ci chiedono di aiutarli a sviluppare la loro strategia di IA. Ma con l'IA generativa, è un po' come se fosse sotto gli occhi di tutti. E quello che sto vedendo in questo momento è che le persone che si occupano di IT vengono interpellate dal presidente dell'azienda e chiedono: "Ehi, possiamo usarlo oggi? C'è così tanto clamore in giro.

Quindi, quello su cui sto lavorando in questo momento è che ci sono molte informazioni utili per aiutare i clienti a gestire il cambiamento. E quello che ho cercato di fare è prendere il meglio delle curve di maturità esistenti. Non che sia una novità assoluta, ma credo che l'idea dell'IA generativa porti le persone a chiedersi se sia legale o etico. E quindi, se tutto va bene, quando vengono sul sito web, abbiamo questa curva di maturità che presentiamo ai nostri clienti.

L'aspetto diverso è l'asse della maturità. Quello che vediamo fare alla maggior parte delle aziende è concentrarsi innanzitutto sul funzionamento. Si concentrano molto sulla tecnica. Abbiamo i dati giusti? Abbiamo il modello giusto? Abbiamo l'infrastruttura giusta? Qual è la performance della nostra previsione, ecc. Naturalmente, si cerca solo di farlo funzionare. Ma con il passare del tempo, man mano che le persone si sentono più a loro agio e hanno più successo, si possono fare un sacco di soldi concentrandosi solo sull'aspetto tecnico. Ma man mano che la tecnologia diventa più pervasiva, la gente si chiede: "Ehi, il tuo algoritmo è corretto? I dati che vi sto fornendo sono privati? Questo tipo di domande sono state definite dalla comunità dell'IA come IA basata sui principi. Quindi, quello che voglio fare è mettere le persone di fronte a questa domanda e dire che, quando si guarda all'IA, si deve iniziare a pensare ai principi come parte della propria maturità.

Dayle Hall:

Ok, siamo in un podcast, quindi la gente sta ascoltando. Cercheremo di fare in modo che, se state guardando questo podcast, possiate trovare un modo per individuare il modello di maturità di cui parla Bill. Ma immaginate che sia un viaggio che parte dalla tecnologia e arriva ai principi di cui parla Bill. E nel corso del tempo, vi muovete lungo, la chiamerò, una curva a S appiattita che mostra tutto il percorso dall'esplorazione all'incorporazione. Poi, molto rapidamente, una volta raggiunta la proliferazione, si arriva all'ottimizzazione. E poi l'ultimo pezzo, che è un po' più lungo, è la vera trasformazione.

Potresti descriverci, Bill, alcuni di questi viaggi iniziali? Cosa significa esplorazione e incorporazione? E poi passiamo alla trasformazione. Qual è un vero esempio di trasformazione lungo il tuo modello di maturità?

Bill Wong:

Dedico molto tempo all'esplorazione. I centri di ricerca degli ospedali, le università, ricevono grafici. Stanno cercando di capire: "Possiamo farlo con le apparecchiature esistenti? O abbiamo bisogno di acceleratori di IA specializzati per farlo? In un mondo perfetto, ci sarebbero gli acceleratori di intelligenza artificiale, alcuni particolarmente difficili o soprattutto con miliardi di punti dati. Sì, non è possibile farlo con la tipica infrastruttura di server. Per questo dedico molto tempo a illustrare loro le best practice su quale sia l'infrastruttura hardware necessaria e quale sia il software che possono scegliere per sviluppare i loro modelli.

Quindi, fare molto di questo. E poi l'incorporazione, che di solito consiste nell'aiutarli a sviluppare un POC basato sul tipo di previsioni che vogliamo che questo modello faccia. Come potete immaginare, la maggior parte delle persone inizia insieme. Proliferare. Ci sono molte grandi aziende che hanno adottato l'IA.

Ora, quando si arriva all'ottimizzazione e alla trasformazione, è qui che molte aziende falliscono, perché è qui che diventiamo più principali e pensiamo a cose come, ad esempio, se ci viene chiesto di prendere decisioni importanti, diciamo, finanziarie, voglio assicurarmi che una banca prenda una decisione imparziale sul fatto che questa persona debba ottenere un prestito o meno. Quindi bisogna chiedere al modello: "Dimmi come sei arrivato a questa decisione".

La spiegabilità o la trasparenza sono cose che solo pochi anni fa la maggior parte delle persone non costruiva per questo. Soprattutto se si utilizzano algoritmi non supervisionati, questa è la sfida. Credo che la letteratura si stia concentrando maggiormente su questo aspetto, ma non è ancora sviluppata. Se chiedo alle persone quali strumenti utilizzate per la classificazione dei dati, come gestite la privacy dei dati, queste sono domande a cui le persone non pensano veramente. Si preoccupano solo di far funzionare il modello. Facciamolo funzionare prima. Ora mi chiedete come faccio a preservare la privacy dei dati, come faccio a garantire la trasparenza delle mie decisioni. Quindi questo campo è ancora in crescita. È ancora un po' come il selvaggio West.

E poi, per quanto riguarda la trasformazione, ci sono alcune aziende che definirei eccellenti nell'essere ciò che io chiamo AI first. Tutto è guidato, dando valore ai loro clienti utilizzando la tecnologia AI. Ma lo fanno anche seguendo i principi guida della responsabilità? E questo è difficile. Quando presento questo tema, le aziende leader, tanto di cappello, hanno tutte commesso errori spettacolari. Potete dare un'occhiata a tutte le grandi aziende tecnologiche, e tutte dicono: "Ok, è così che si fa". Ma hanno tutti commesso errori spettacolari. Non voglio fare nomi, ma tutti hanno sentito parlare di aziende che hanno utilizzato l'intelligenza artificiale per esaminare i curriculum e poi, all'improvviso, hanno scoperto che era piuttosto parziale.

E si pensa che sia così ovvio. Ma ancora una volta, le persone sono così concentrate sul funzionamento del modello che si dimenticano di questi principi. E nessuno ne è immune. È necessario che qualcuno ci pensi fin dall'inizio.

Dayle Hall:

Sì. E mi piace. E mi piace. Ho fatto un podcast con una persona del settore delle risorse umane, come ho detto, e abbiamo parlato molto dei pregiudizi, in particolare nel settore delle risorse umane. E se ci sono pregiudizi, l'intelligenza artificiale non li risolve. La cosa si fa un po' più complessa.

Hai detto una cosa molto interessante. Non l'avevo mai sentita descritta in questo modo: algoritmi non supportati. Molte persone hanno parlato di spiegabilità e trasparenza dell'IA, ma cosa intende in particolare per algoritmi non supportati?

Bill Wong:

Intendo dire senza supervisione.

Dayle Hall:

Non supervisionato.

Bill Wong:

C'è l'apprendimento supervisionato, in cui gli esseri umani aiutano a formare tutti gli algoritmi. Ma quando non è supervisionato, si lascia che gli algoritmi prendano una decisione da soli. È piuttosto difficile per loro spiegare come si è arrivati alla decisione. Quindi l'esempio è, e si potrebbe dire che per l'elaborazione delle immagini, in genere, si ricorre ad algoritmi non supervisionati. E quindi come si fa a distinguere un cane da un gatto. È davvero necessario sapere come è stato fatto? È davvero importante? E molti diranno di no, basta che sia molto affidabile, e a loro va bene così. Ma per cose come l'approvazione o meno di una banca, il costo di un'assicurazione, questo tipo di domande, la gente esige quasi un certo livello di trasparenza, in modo che la decisione sia totalmente imparziale.

Dayle Hall:

Ciò che mi fa sempre piacere quando parlo con persone che influenzano le aziende e le persone intorno a questa crescita è che siamo ancora agli inizi dell'IA. Sono molto incoraggiato dal fatto che credo che le persone stiano cercando di fare la cosa giusta. Stanno cercando di agire in modo responsabile. In uno dei podcast che abbiamo tenuto di recente, ho parlato dell'IA non è la stessa cosa dei social media quando i siti di social media hanno iniziato a colpire. Ma è sembrato che ci siamo davvero scontrati con alcuni muri e abbiamo avuto alcuni problemi importanti prima che i siti di social media dicessero: "Ok, dobbiamo fare qualcosa per questo". Credo che le persone coinvolte nell'IA abbiano un po' più di cautela o un po' più di responsabilità nell'assicurarsi di fare le cose per bene. Questa è solo la mia opinione. Non so se anche voi la pensate così.

Bill Wong:

Condivido questo sentimento. È positivo che ci sia questo livello di consapevolezza e che le persone sappiano che è importante. La sfida consiste nel metterla in pratica, tornando alla curva di maturità e all'IA responsabile. Credo che tutti debbano cercare di fare la cosa giusta. Non possiamo aspettarci che siano le leggi a governare il fenomeno, ma storicamente non ha mai funzionato. E per quanto riguarda le grandi aziende tecnologiche, alcune di loro ci pensano, ma di solito le grandi aziende sono in grado di governarsi da sole, per dirla in modo gentile. Assumono persone che sono brave nelle vendite, brave nella programmazione. Non assumono persone che pensano alle implicazioni sociali. Ecco perché Facebook o Meta sono un bersaglio facile per dire cosa c'è di sbagliato, perché semplicemente non hanno le persone giuste che prendono queste decisioni. Potrei continuare a lungo, ma credo che le grandi aziende tecnologiche concordino sul fatto che non sono le prime a farlo. Quindi dobbiamo assumerci noi stessi la responsabilità.

E, volenti o nolenti, se non faranno un buon lavoro al riguardo, i governi scenderanno in campo. Naturalmente, si faranno attendere, ma arriveranno con un oggetto molto contundente e diranno: "Ehi, non importa se stiamo per soffocare l'innovazione. Ci sono troppi cattivi attori, cattivi comportamenti là fuori. Stiamo entrando. Questo è il rovescio della medaglia se non facciamo qualcosa noi stessi.

Dayle Hall:

Sì, sono d'accordo. Prima di andare avanti, volevo farle un paio di domande. Abbiamo parlato un po' delle sfide dell'introduzione dell'IA in un'organizzazione e lei ha parlato di dove ha lavorato e di alcuni clienti. Vorrei farle un paio di domande specifiche. Abbiamo condotto un sondaggio su come i dipendenti percepiscono l'IA. Non ho intenzione di ripercorrerlo tutto. Ho due domande specifiche. La prima è che circa il 70% delle persone ha dichiarato di ritenere che la propria azienda, la propria società, sia aperta e abbia la giusta cultura per essere pronta ad avere l'IA in azienda. Ma solo un terzo pensa di avere le competenze o le capacità per implementarla nel modo giusto e trarne il massimo beneficio.

Quindi la maggior parte di noi pensa di essere pronta, ma solo una piccola parte pensa che le nostre aziende siano pronte ad affrontarlo. Parlando con clienti e committenti, questo è un aspetto che risuona con voi? Lo vedono? Non lo vedono? Come consiglierebbe loro di prepararsi o di trovarsi nella posizione migliore, in particolare per quanto riguarda le competenze, se vogliono puntare sull'IA?

Bill Wong:

Ho la stessa prospettiva. L'ho visto. E spero che quando dicono che la cultura è pronta, significhi che si tratta di una cultura orientata ai dati, che i dati sono trattati come una risorsa che aiuta a prendere decisioni migliori. Ho visto aziende fare cose innovative. Un centro di ricerca ospedaliero ha assunto un fisico, gli ha permesso di familiarizzare con gli algoritmi ed è diventato il loro data scientist interno. Sono ottimista perché sempre più strumenti sono disponibili, senza bisogno di essere uno sviluppatore. È un approccio senza codice. Penso che questo contribuirà a ridurre, non a eliminare, ma a diminuire le sfide legate alle competenze. È comunque necessario avere persone qualificate, si spera, all'interno di quel settore. Ma sì, è un po' una barriera.

Credo che l'intelligenza artificiale generativa riduca molto questa barriera. Quindi, ancora una volta, mi aspetto di vedere molti strumenti più innovativi in cui non è necessario essere uno scienziato dei dati o un programmatore Python.

Dayle Hall:

Sì, certo. La seconda domanda che mi è venuta dal sondaggio: abbiamo chiesto alle persone quali fossero i principali vantaggi. E di tutti quelli che abbiamo interpellato, circa la metà ha detto che pensava che avrebbe fatto risparmiare tempo. Poco meno della metà ha detto di pensare che avrebbe migliorato la produttività. E probabilmente circa un terzo ha detto che avrebbe ridotto i rischi o gli errori nel proprio lavoro. Quindi la mia domanda è: le persone nelle aziende, ecco cosa pensano che possa fare, cosa probabilmente vorrebbero che facesse. Quando parla con i clienti e i committenti, o nella sua esperienza con le aziende per cui lavora, che cosa consiglia loro per quanto riguarda la definizione degli obiettivi giusti? Vengono da voi con questo tipo di obiettivi, ad esempio: questo è ciò che vogliamo fare, vogliamo migliorare la produttività? Hanno casi d'uso specifici? Come si rivolgono a voi? Cosa vogliono ottenere dall'utilizzo potenziale dell'IA?

Bill Wong:

Il valore aggiunto che posso dare è aiutarli a sviluppare una strategia per l'IA. Per qualsiasi tipo di tecnologia dirompente, è necessaria una strategia aziendale. Non si tratta di una tecnologia a sé stante, con la quale gli informatici possono giocare. È necessario che la linea di business o gli stakeholder dell'azienda capiscano qual è la nostra missione aziendale e come l'IA si allinea a essa. Siamo un'azienda nota per l'innovazione? Allora sì, l'IA può essere utilizzata per aumentare il loro lavoro e renderli più produttivi. Siamo un'azienda in cui il costo più basso è la cosa migliore che possiamo fare per i nostri clienti? Allora è probabile che l'IA serva ad automatizzare le cose, a volte a sostituire molte delle attività svolte dagli esseri umani. Quindi tutto parte dalla strategia e dalla prospettiva aziendale. Una volta che questa è stata messa in atto, si può passare alle modalità di utilizzo e alle politiche che ne derivano.

Dayle Hall:

Giusto. No, è buono. Anche in questo caso, credo che ci siano molti sondaggi di questo tipo. Ma per me è interessante conoscere il suo punto di vista, perché credo che lei sia impegnato in un numero maggiore di conversazioni tra aziende diverse. Quindi lei ha una prospettiva unica. C'è un progetto a cui avete lavorato di recente che riprende alcune delle indicazioni che avete dato loro sui vantaggi per l'azienda? Non deve fare nomi, ma è stato in grado di dimostrare che l'IA è stata davvero d'aiuto all'organizzazione, sia che si tratti di esplorazione o di proliferazione, sia che si tratti di trasformazione. Non è necessario che sia tutto completo, ma potete fare qualche esempio in modo che gli ascoltatori possano pensare: "Questo è un progetto che potrei fare io, o la nostra azienda potrebbe fare questo tipo di cose"?

Bill Wong:

Vorrei citare un istituto dell'Università della British Columbia. Lì c'è un gruppo di ricercatori. Un paio di anni fa abbiamo avuto una piccola cosa chiamata pandemia.

Dayle Hall:

Ne avevo sentito parlare.

Bill Wong:

E sono stati incaricati di creare nuove terapie o trattamenti. Se si lavora nel campo della scoperta di farmaci, si tratta di un ambiente terribilmente complesso in cui ogni anno vengono esaminati centinaia di candidati a farmaci. E si potrebbe ottenere un nuovo farmaco dopo 10 anni e 3 miliardi di dollari di ricerca. Questo è il tipo di pipeline. Il modo in cui volevano avere un impatto e spostare l'ago della bilancia era: possiamo farlo più velocemente? Se avete seguito molte delle ricerche sul COVID come virus, gran parte della ricerca è stata dedicata a come annullare l'azione di rendere attivo il virus. Esiste un campo di studio chiamato aggancio molecolare. Se si pensa alla navetta spaziale come analogia, quando si prepara la navetta spaziale per il laboratorio, quando si incontrano prima che gli astronauti possano raggiungere la stazione spaziale, devono agganciarsi, e questo aggancio permette loro di entrare nel veicolo.

Quando si tratta di virus, si vuole avere una molecola che si agganci al virus e ne annulli l'attività, quindi il docking molecolare. La sfida è che ci sono miliardi di test da fare. Per questo hanno preso i programmi di docking più diffusi, che prevedono la capacità di una molecola di annullare un virus. Hanno calcolato che non c'è abbastanza potenza di calcolo. Anche se avessero tutti i calcoli, ci vorrebbero anni per fare tutto questo. Quindi si è pensato: perché non usare il deep learning per prevedere i punteggi di docking, visto che il docking è un'attività che richiede molto calcolo? Ci sono tonnellate di dati per farlo. Quando 40 miliardi erano un numero elevato, credo che lo siano ancora, ma è quello che abbiamo fatto, 40 miliardi. Quindi abbiamo usato l'apprendimento profondo per dire: "Lo prevederemo". Non eseguiremo fisicamente le simulazioni. Utilizzeremo semplicemente algoritmi di intelligenza artificiale di apprendimento profondo per prevederlo.

Così facendo, sono riusciti a creare piuttosto rapidamente una sorta di elenco finito di molecole candidate da testare per vedere se sono efficaci contro il virus. La rivista Nature, un'autorevole rivista scientifica, è stata la prima a pubblicarla e poi, lentamente, si è iniziato a vedere un numero sempre maggiore di ricercatori utilizzare questa tecnica, chiamata deep docking, un ibrido tra docking molecolare e deep learning.

Sono molto orgoglioso di questo, perché quando parlo con persone che si occupano di IA nelle scienze biologiche, credo che tutti sentano che stiamo cercando di fare la differenza nella vita delle persone. Non si tratta solo di fare soldi. Sono certo che le persone possono guadagnare, ovviamente, con i farmaci e che dovrebbero essere ricompensate. Ma credo che la maggior parte delle persone con cui lavoro senta che stiamo facendo la differenza, o almeno che stiamo cercando di fare la differenza nella vita delle persone. Sono stati così gentili da includermi come autore. Per me è stato uno dei punti di forza, un progetto che mi è piaciuto molto.

Dayle Hall:

Sì, no, è fantastico. Ne abbiamo parlato un po' prima. Abbiamo detto che non credo che le imprese in sé abbiano cattive intenzioni. Ma mi piace sentire cose come questa, cioè l'uso dell'IA per la ricerca medica. Speriamo che sia qualcosa che renda il mondo migliore. E questo suona un po' come "maternità e torta di mele", lo so. Ma se qualcosa può, se qualcosa può, è a questo che dovrebbe servire. Ho un figlio di 12 e uno di 15 anni e vogliamo sperare di lasciare il mondo in un posto migliore in tutti i modi possibili. E questo è un aspetto interessante.

E questo ci porta probabilmente a uno degli argomenti più caldi del giorno, che riguarda l'IA generativa e, ovviamente, ChatGPT, di cui la mia quindicenne al liceo mi ha chiesto se dovesse usarlo per i compiti, al che ho risposto che non so ancora quali siano i principi scolastici. Ma ho detto che è un aiuto, non una soluzione. Non dovrebbe fare il lavoro al posto tuo. Dovreste comunque capirlo. Quindi vedremo come andrà a finire.

Ma con questo e con l'avvento di altre piattaforme di IA, quali sono le cose per cui pensa che dovrebbero essere utilizzate oggi? E cosa si aspetta nel prossimo futuro? Quali pensa siano le possibilità di qualcosa come ChatGPT?

Bill Wong:

Sono davvero entusiasta della possibilità di un'intelligenza artificiale generativa, o di portare questo tipo di potenza creativa alle masse. Probabilmente molte persone stanno passando molto tempo a cercare di ingannare il sistema, per vedere dove cade. Ma credo che col tempo continuerà a migliorare.

Penso che i normali casi d'uso per i quali l'IA viene utilizzata, vedranno anche il contributo dell'IA generativa. Penso che il punto di ingresso sarà più semplice. Per quanto riguarda il reperimento dei dati, come ho detto prima, è un problema universale che ho riscontrato. Ma cosa succede se si può chiedere al sistema di generare dati sintetici per testare il proprio modello? Questa barriera, diciamo, ha certamente ridotto le domande su quanto siano validi i dati sintetici. Ma, ancora una volta, credo che con il passare del tempo, questa tecnologia sia davvero promettente per la sua proliferazione.

È qui che si inserisce un orientamento come quello dell'istruzione, e proprio in questi giorni abbiamo parlato con istituzioni che sono in difficoltà. Stanno cercando di capire cosa fare. Alcune lo stanno vietando del tutto. Quindi non si può usare. E a lungo termine, il divieto della tecnologia in genere non funziona. Le persone troveranno una soluzione. Le istituzioni educative saranno chiamate a trasformare il loro modo di educare. Potrebbe essere un po' più vecchia scuola, ma parlare con le persone, chiedere loro di comunicare, in piccoli gruppi, cosa si può fare sul posto senza accedere a nessun tipo di piattaforma informatica. Perché è questo che faranno nella vita reale.

Dayle Hall:

Lei ne ha parlato. Non credo che fermare o proibire l'innovazione, che ci piaccia o no, troverà la sua strada. Troverà la sua strada. E questo si ricollega a ciò di cui abbiamo parlato prima, Bill, ovvero che dovremmo essere tutti responsabili. Dovremmo tutti capire che ognuno di noi ha un certo livello di responsabilità. Non si tratta solo di dire che tutti gli istituti di istruzione superiore devono adottare politiche o vietarlo o come lavorarci. Dovremmo tutti usarlo nel modo giusto. E credo che se riusciamo ad agire in questo modo, come ha detto lei, le grandi aziende commettono errori. Tutti noi faremo degli errori. Alcuni enti superiori commetteranno degli errori. Ma credo che andrà tutto bene.

Al di fuori dell'istruzione superiore, vede qualche settore specifico, che noi chiamiamo "soluzioni verticali" e così via, qualche settore specifico che ha davvero adottato questo metodo e lo sta portando avanti? Ovviamente le aziende tecnologiche l'hanno recepito molto rapidamente. Ho iniziato a ricevere e-mail da rappresentanti dello sviluppo delle vendite che mi hanno inviato un'e-mail dicendo: "Ehi, siamo la Chat GPT della pipeline di vendita". Io dico: "Smettetela, smettetela, smettetela". Non abbiamo bisogno del lavaggio di ChatGPT. Ma al di fuori delle aziende tecnologiche, chi pensa che possa avere un potenziale per far progredire questo aspetto?

Bill Wong:

Credo che i frutti più facili da raccogliere per le industrie siano quelli basati sul testo. Questo è il più facile. Ce ne sono altri, come i video basati sulle immagini. Si tratta certamente di cose potenti, ma credo che quella più facile sia il testo. Per esempio, le aziende che vengono ingaggiate per creare, ad esempio, testi di marketing o descrizioni di nuovi prodotti. ChatGPT potrebbe fare un lavoro di 100 persone. Non è più necessario che questo tipo di compiti sia svolto da esseri umani. Per questo motivo, nell'ambito dello spazio tecnologico pesante, ho iniziato a vedere alcuni studi legali che lo guardano con attenzione, per cui si tratta di formazione. È possibile personalizzare, ad esempio, ChatGPT in anticipo con un personaggio che si può creare e che capisce il linguaggio legale. Quindi aspettatevi che anche la scansione possa arrivare.

Per qualsiasi tipo di ricerca, anche nella mia professione, ci sono discussioni del tipo: perché assumere un analista quando posso ottenere tutto da ChatGPT? Ma il rischio e la sfida sono ancora presenti: bisogna verificare queste informazioni. Tutto proviene da Internet. Molte di esse, come sappiamo, sono parziali e imprecise. Abbiamo persone che le controllano. I settori tecnologici sono quelli che stiamo adottando di più. I giornali, i giornalismi hanno iniziato a vedere alcune di queste cose, persone che scrivono i blog delle persone, ecc.

Dayle Hall:

Sì, abbiamo provato un paio di cose, come i blog e il loro funzionamento. Serve sicuramente una maggiore specificità. Serve una persona responsabile. Perché tutto può sembrare uguale, perché, in teoria, sarà uguale perché proviene dalla stessa fonte. Quindi la differenziazione è minima se si fa in questo modo. Ma ci sono moltissimi vantaggi. Sarà interessante vedere come andrà a finire.

A questo punto, parliamo un po' di IA responsabile. Abbiamo parlato un po' in anticipo, abbiamo già menzionato un paio di punti sulla spiegabilità e la trasparenza dell'IA in generale. Credo di aver detto la parola sbagliata, algoritmi non supervisionati.

Bill Wong:

È un tipo di algoritmo di IA. Le basi dell'IA responsabile che abbiamo visto - ci sono molte organizzazioni no-profit, iniziative governative, e si sono concentrate su sei temi principali. Quando ci rivolgiamo ai clienti, parliamo di privacy: rispetta la privacy dei dati e la privacy personale? L'algoritmo è equo e imparziale? Lei ha menzionato prima la spiegabilità, la trasparenza.

Le ultime tre riguardano il sistema che si costruisce, è sicuro, protetto? A volte si parla di robustezza. E poi la governance, la governance dei dati, la governance del modello. E l'ultimo, molto importante, è la responsabilità. Anche se si può semplicemente distribuire questo modello e dire: "Ehi, è solo un algoritmo", qualcuno, da qualche parte, qualche organizzazione deve essere identificata come "Ehi, se qualcosa va storto, c'è un errore". È a questa organizzazione che bisogna rivolgersi per assumersi la responsabilità di queste azioni.

Come base, quando dico di iniziare con questo, e poi alcuni settori, come quello sanitario, legale, potrebbero avere molto di più in termini di problemi di conformità, che rientrerebbero nel campo dell'IA responsabile. Ma questa è la base che vediamo comune indipendentemente dal settore di appartenenza.

Dayle Hall:

Senza fare nomi, ma quando parlate con i clienti o con i committenti, o quando svolgete questo tipo di lavoro all'interno delle organizzazioni di fornitori, il concetto di IA responsabile viene fuori in modo proattivo? Vi capita di sentire cose che poi vi costringono a dire: beh, sentite, dobbiamo pensare a come usarla in questo modo?

E ancora, quello di cui abbiamo parlato prima è che le imprese e le persone nelle imprese hanno difficoltà ad autogovernarsi per questo tipo di cose. Quindi non dico che tutti debbano essere al corrente di questo aspetto, ma vi sentite ancora obbligati a fare queste considerazioni quando parlate con clienti e committenti?

Bill Wong:

Credo che sia la seconda. Non presumo che sarebbe un bel mondo, in cui tutti si rendessero conto che questo è il meglio per il cliente e per l'azienda. Ma se dovessi essere del tutto sincero, alcune persone, quando si pronuncia la parola etica o principi, pensano che questo rallenterà l'innovazione, rallenterà l'adozione. Alcuni. Ma io sono ottimista sul fatto che, attraverso l'educazione, ci sia una motivazione commerciale per farlo, che se non lo si fa è un male per l'azienda e che, a lungo termine, è nel vostro interesse adottare questi principi.

Dayle Hall:

Sì, no, penso che sia giusto, perché molte di queste innovazioni sono nuove e sono cose che non abbiamo necessariamente sperimentato. Non mi aspetto che tutti conoscano tutte le cose che dovrebbero fare con l'IA etica o che siano responsabili. Sono più incoraggiato dal fatto che persone come lei e un paio di altri luminari dell'IA con cui abbiamo parlato in questo podcast, ci pensino e cerchino di assicurarsi - c'è uno con cui abbiamo parlato di recente, che sta creando gruppi a livello mondiale, dove noi, le persone, parliamo di quali dovrebbero essere le regole e le responsabilità. E credo che sia un'ottima cosa. Dovremmo essere coinvolti fin dall'inizio.

Quando andate nelle vostre organizzazioni, le cose che chiedete loro, date loro i principi in anticipo? Non date per scontato e dite semplicemente SnapLogic? Quali sono le domande che dovremmo porci quando iniziamo a usare l'IA?

Bill Wong:

Avere una strategia aziendale per l'IA e quindi scegliere quali sono i principi guida per il futuro. Questo vi guiderà nella scelta della tecnologia e, quando svilupperete il modello, dovrete pensare a questi principi. Quindi, quando si ottengono i dati, ci si deve preoccupare di cose come il lignaggio dei dati, in modo da sapere da dove provengono, così che se qualcuno chiede se questi dati sono affidabili, se sono imparziali, si scelgono strumenti che possono aiutare a rafforzare e implementare i principi che si sono adottati.

Dayle Hall:

Sì, è vero. No, è interessante. Ok, ultima domanda per concludere il podcast. Qual è la cosa più innovativa o più eccitante che vi aspettate o che attendete nei prossimi due o tre anni in questo campo specifico? Potrebbe essere qualcosa di pratico o qualcosa di totalmente visionario. Ma mentre lasciamo il podcast, di che cosa Bill è davvero entusiasta e che potrebbe arrivare presto sui nostri schermi?

Bill Wong:

È possibile - ok, questo è solo il mio desiderio di tecnologia. Credo che tutti amino le grandi storie e abbiano difficoltà ad articolarle. Questa tecnologia ha la capacità di dire, diciamo, voglio creare il mio film di Star Trek. Voglio nuove astronavi nella linea di quelle che si vedono nella Flotta Stellare. Si definiscono i personaggi e la trama. E si può far sì che il software lo crei. Per me, questa sarebbe solo la mia linea. E credo che gli elementi costitutivi siano già presenti finché non avremo i nostri ponti ologrammi. Ma sì.

Dayle Hall:

Voglio sempre che sia Jean-Luc Picard. Quindi forse potrei essere... spero di avere un po' più di capelli. Ma in generale, penso che sarebbe fantastico vedere una cosa del genere realizzarsi. Ancora una volta, guardo queste cose e penso ai miei 12 e 15 anni, quando arriveranno al lavoro, quando inizieranno a lavorare, qualunque cosa faranno, ma in che mondo stanno arrivando con alcune di queste possibilità ora.

Bill Wong:

Li invidio un po'. Ma speriamo di essere ancora in giro per vedere molte di queste cose. E non credo che il futuro sia così lontano.

Dayle Hall:

Lo spero anch'io. Bene, Bill, grazie mille. Apprezzo la tua partecipazione a questo podcast oggi. Ancora una volta, adoro queste discussioni. Mi distolgono dal mio lavoro quotidiano di vendere software alle persone e di commercializzare software. Quindi lo apprezzo molto. Bill, grazie mille per la tua partecipazione al podcast di oggi.

Bill Wong:

Grazie, Dayle. Grazie mille. Per qualsiasi domanda, non esitate a contattarci.

Dayle Hall:

Faremo sicuramente in modo che i vostri contatti vengano diffusi quando lo pubblicheremo online. Grazie a tutti per aver ascoltato quest'ultimo podcast di Automatizzare l'impresa. Ci vediamo al prossimo episodio.