Intervista a Luca Accomazzi su Computerworld Italia
Il nostro co-fondatore è stato intervistato da quella che è forse la principale e certamente più longeva testata di informatica in Italia. Potete leggere l'intervista sul loro sito cliccando qui.
Computerworld, come tutte le riviste, obbliga l'articolista a rispettare precisi "ingombri", ovvero dimensioni per il pezzo. Per questo motivo alcune domande del giornalista e risposte di Luca Accomazzi, pur interessanti, non sono state pubblicate. Per chi fosse interessato alla... extended cut... proponiamo in questa pagina il testo eliminato in redazione.
Andrea Grassi
Luca Accomazzi, superesperto di intelligenza artificiale?
Luca Accomazzi
No, onestamente no. Laurea magistrale in informatica, quaranta anni a scrivere software e un team affiatato attorno a me che sviluppa soluzioni innovative su Internet.
Anche io, come quasi tutti, ho iniziato a studiare ChatGPT solo nel dicembre scorso. Però dal primo marzo con il mio team ci siamo messi a tempo pieno a sviluppare una soluzione basata su quel motore. Studiandolo da dentro ci siamo resi conto che quasi tutti quelli che ne parlano hanno speso poco o addirittura neppure un minuto a leggere le specifiche tecniche e dicono cose anche intelligenti, ma basate su presupposti debolissimi.
Andrea Grassi
Persone intelligenti dicono cose intelligenti, ma sbagliate?
Luca Accomazzi
Sì. Un sacco di esperti di altri campi studiano questi nuovi strumenti informatici guardandoli dai punti di vista meno interessanti. È un po' come quando, nel 2007 quando è nato il primo iPhone e con lui la categoria degli smartphone, molti esperti di telefonia si concentravano solo su due aspetti: “ma come, ha la batteria che si scarica così in fretta e che lo devo caricare tutte le notti” e “ma come, costa più di 500 euro”. Due verità, certo, ma che non definivano la nuova rivoluzionaria categoria di prodotto e che alla fine si sono dimostrate marginali.
E’ facile riconoscere queste “guide cieche” perché sbandierano il termine “intelligenza artificiale”, che è tecnicamente opaco e impreciso, anziché parlare di machine learning o di large language model, usando termini tecnici.
Andrea Grassi
Se non “intelligenza artificiale”, come vogliamo chiamare in italiano ChatGPT?
Luca Accomazzi
Sistema generativo. GPT è una macchina che, dopo aver letto miliardi di testi in molte lingue diverse, per induzione ha derivato le regole e imparato a mettere parole una dietro l’altra per comporre frasi di senso compiuto. La medesima azienda che lo sviluppa, OpenAI, ha creato anche una macchina chiamata JukeBox che produce musica (di cui per qualche motivo non parla nessuno); Whisper, un sistema che ha imparato a parlare combinando i fonemi, e Dall-E, un sistema che produce immagini.
Andrea Grassi
Impiegato come traduttore, ChatGPT non ha limiti?
Luca Accomazzi
Ne ha, ma pochi. Se gli si chiede di tradurre in latino “non tutti possono andare a Benevento”, GPT applica correttamente l’oscura regola secondo la quale ci vuole l’accusativo per moto a luogo verso città o piccola isola.
Altro esempio: traduce perfettamente in russo “we went to my place with three children” con "Мы пошли ко мне домой с тремя детьми": garantisco che un umano che ha studiato quella lingua per tre anni questa frase la sbaglia. In entrambi i casi il traduttore di Google fa pena.
Gli mancano, anche qui, creatività e buon senso. Se trova un gioco di parole non se ne accorge e traduce letteralmente.
Andrea Grassi
Cosa avete sviluppato, è un segreto?
Luca Accomazzi
No, l’unica cosa che non posso dire sono i nomi dei primi committenti, perché sono ancora sotto NDA. Il prodotto base è un sistema al quale l’azienda fornisce testi su sé stessa, i suoi servizi e i suoi prodotti, esattamente come farebbe per gli operatori di un call center; il nostro sistema risponde in chat o a voce, sul web o al telefono, come farebbero quelle persone. Gli si può dare in pasto i manuali tecnici dei prodotti e diventerà un esperto.
Per una prossima versione contiamo di fare affidamento sulla nuova tecnologia Retrieval di GPT 4 che, con la modalità Upsert, consente al nostro sistema di ricordare il contesto di una conversazione a distanza di tempo e scrivere nel database le richieste dell'essere umano. Il che permetterà prsumibilmente di prendere ordini per un commercio elettronico a voce, e cose del genere.
Andrea Grassi
Con il metodo dei dataframe Pandas si è al riparo da possibili risposte errate, o comunque la natura probabilistica del modello non può escludere questa eventualità?
Luca Accomazzi
Durante i beta test abbiamo osservato alcune allucinazioni, le risposte "a capocchia” di GPT, e ovviamente abbiamo fatto del nostro meglio per stroncarle. Lo strumento è il prompt engineering usato in modalità preflight. In termini semplici: dietro le quinte — cioè nella nostra programmazione — ogni domanda dell'utente umano prima di venire girata al modello GPT viene invisibilmente prefissa con la richiesta di rispondere "non lo so" in caso di incertezza.
Nella versione attualmente in test interno presso il personale della azienda committente negli ultimi dieci giorni non sono capitate allucinazioni, e siamo cautamente ottimisti. Stiamo discutendo se sia il caso di catturare le domande degli utenti reali e le risposte del sistema, almeno per il breve periodo dopo il rilascio del software, in modo da renderci conto se il fenomeno riappaia, ma anche per scoprire se molti utenti finali hanno una qualche domanda sulla quale nessuno ha inserito informazioni nella base dati; se si fa, naturalmente, bisognerà avvisare preventivamente gli utilizzatori e ottenerne il consenso.