ChatGPT: riflessioni per una sana e consapevole integrazione

Le tecniche di Machine Learning applicate al trattamento del linguaggio naturale (NLP – Natural Language Processing) continuano a fare progressi da gigante. L’uscita di ChatGPT rappresenta un traguardo importante, sia tecnologico che culturale. E’ infatti la prima volta che un vasto pubblico ha potuto toccare con mano la potenza di un modello linguistico in grado di generare testo estremamente convincente sulla base delle nostre richieste espresse in linguaggio naturale.

Test di Turing e Problem Solving

Con buona pace di chi online polemizza sul fatto che ChatGPT abbia o meno passato il test di Turing, di per certo possiamo constatare che i risultati raggiunti dal modello sono a dir poco entusiasmanti con particolare riferimento alle sue capacità di problem solving. Questa capacità sembra infatti essere rilevata e confermata da vari studi tra cui “Using cognitive psychology to understand GPT-3” dove gli autori hanno verificato come GPT-3 riesca a risolvere alcuni test usati in psicologia cognitiva meglio di molti soggetti umani.

Cosa possiamo fare con i modelli GPT?

Con i modelli GPT è possibile

  • generare testi a partire da indicazioni date in linguaggio naturale
  • richiedere riassunti di testi esistenti secondo l’indicazione dell’utente (es. semplificando molto il linguaggio, in formato puntuale, etc.)
  • classificare testi (argomento, “sentiment”, etc.)
  • identificare il registro linguistico di una comunicazione
  • realizzare interfacce utente ad interazione colloquiale

I casi d’uso che possiamo immaginare sono veramente tantissimi:

  • Supporto clienti
  • Help in linea per operatori di strumenti complessi (es. piattaforme software, macchinari, sistemi per il supporto decisionale, etc.)
  • Assistenti per la produttività (es. gestione attività, ricerche, generazione di report e sintesi, supporto alla comunicazione, etc.)
  • Strumenti di filtraggio e suggerimento contenuti
  • Strumenti per il marketing colloquiale (es. chatbot)

Limitazioni

Attualmente i modelli disponibili sono in grado di elaborare testi di lunghezza abbastanza modesta (circa 16000 caratteri) e quindi non sono adatti a generare o riassumere testi lunghi come per esempio un libro. Per far questo è necessario organizzare il lavoro in modo adatto, per esempio spezzettando il testo in più parti e ricombinando poi i risultati.

Nella roadmap di sviluppo sono tuttavia previste nuove versioni dei modelli capaci di elaborare testi di lunghezza maggiore.

Valorizzare la funzione umana

Una delle caratteristiche che rende estremamente appetibile l’impiego dei modelli GPT è che è possibile raffinare il modello in modo incrementale per realizzarne così una versione personalizzata capace di erogare prestazioni migliori in specifici campi di applicazione.

Ciò rende possibile attuare strategie aziendali volte a massimizzare il valore apportato dalle persone. In questa visione l’attività del personale infatti non è solo funzionale all’espletamento di un compito (es. compilare un report), ma contribuisce a realizzare uno strumento tecnico (es. l’assistente alla creazione di report) che servirà a rendere più semplice il lavoro. Questo approccio offre numerosi vantaggi:

  • incrementa la produttività con ripercussioni positive sulla competitività e scalabilità del business
  • solleva il personale da task ripetitivi e poco stimolanti con conseguenze positive sulle condizioni lavorative
  • rende la conoscenza ed il modo di operare collettivo un asset aziendale ben definito, dal valore quantificabile e potenzialmente di interesse strategico.

Hai bisogno di integrare l’AI nella tua azienda?

L’importanza del feedback

Indipendentemente dal tipo di applicazione che andremo a costruire dovremmo tendere all’implementazione di un paradigma di elaborazione con retroazione in modo da catturare e valorizzare l’esperienza rappresentata dai riscontri degli utenti.

A titolo di esempio possiamo pensare ad una applicazione dove:

  1. L’operatore interroga il modello
  2. Il modello fornisce una risposta
  3. l’operatore supervisiona ed eventualmente adatta il contenuto ai propri scopi
  4. Il contenuto adattato viene usato per raffinare il modello

Un simile flusso di lavoro supporta efficacemente l’operatore e nel contempo permette di capitalizzarne il contributo (la correzione/adattamento dei contenuti proposti) che viene usato per rendere il modello sempre più adatto a generare contenuti con le caratteristiche desiderate.

Integrazione ed usabilità, fattori da non sottovalutare

La tentazione che potremmo avere è quella di dire: “ChatGPT va bene così com’è, faccio le domande, ricevo le risposte, taglio, incollo, eventualmente adatto il contenuto alle mie esigenze ed il gioco è fatto”. Questo approccio è sicuramente utile nelle fasi iniziali di valutazione della tecnologia, ma completamente inadatto in un contesto produttivo strutturato.

Inoltre il vantaggio competitivo iniziale che si avrebbe adottando per primi tale strumento in modo così semplificato svanirebbe nel giro di poco tempo conseguentemente all’adozione di strumenti analoghi da parte della concorrenza.

Poichè il nostro obiettivo è specializzare il modello è necessario diffondere all’interno della propria organizzazione l’uso corretto del nuovo ausilio tecnologico.

Per integrare in modo coerente e proficuo la componente di machine learning nella pratica quotidiana è quindi opportuno investire in una accurata fase di analisi e pianificazione che consideri molteplici fattori tra i quali obiettivi di business, modalità lavorative e abitudini del gruppo di lavoro. Tale attività è essenziale per definire le modalità d’uso dello strumento tecnologico, così come le sue interfacce e interazioni con gli altri strumenti di produttività già impiegati.

Gestire il ciclo di vita dell’applicazione

Come tutti i software anche quelli basati su machine learning necessitano di manutenzione.

In questo caso è necessario mettere in pratica procedure tese a dislocare e mantenere i modelli ML in produzione in modo affidabile ed efficiente secondo le pratiche della disciplina MLOPS.

La MLOPS (Machine Learning Operations) è una disciplina emergente che mira ad integrare tecniche di DevOps con le problematiche tipiche della gestione di applicazioni basate su ML, al fine di consentire una migliore gestione del ciclo di vita delle applicazioni.

Conclusioni

Oggi sono disponibili, a costi estremamente contenuti, molti strumenti basati su tecniche di machine learning. Grazie alle interfacce semplificate di cui dispongono anche senza avere particolari competenze è possibile cominciare a beneficiare del loro uso. Ciò considerato la diffusione di tali tecnologie sarà immediata ma solo chi saprà integrarle al meglio nel proprio flusso di lavoro riuscirà a costruire un vantaggio durevole nel tempo.

Hai bisogno di integrare l’AI nella tua azienda?