Come addestrare il tuo chatbot attraverso il prompt engineering
CasaCasa > Blog > Come addestrare il tuo chatbot attraverso il prompt engineering

Come addestrare il tuo chatbot attraverso il prompt engineering

Sep 06, 2023

Di Lucas Mearian

Reporter senior, Computerworld |

Uno dei motivi per cui i chatbot basati sull'intelligenza artificiale hanno preso d'assalto il mondo negli ultimi mesi è perché possono generare o perfezionare il testo per una varietà di scopi, sia che si tratti di creare una campagna pubblicitaria o scrivere un curriculum.

Questi chatbot sono alimentati da algoritmi LLM (Large Language Model), che possono imitare l'intelligenza umana e creare contenuti testuali, nonché audio, video, immagini e codice informatico. Gli LLM sono un tipo di intelligenza artificiale addestrata su un'enorme quantità di articoli, libri o risorse basate su Internet e altri input per produrre risposte simili a quelle umane agli input del linguaggio naturale.

Un numero crescente di aziende tecnologiche ha presentato strumenti di intelligenza artificiale generativa basati su LLM per uso aziendale per automatizzare le attività applicative. Ad esempio, la scorsa settimana Microsoft ha lanciato per un numero limitato di utenti un chatbot basato sul ChatGPT di OpenAI; è integrato in Microsoft 365 e può automatizzare le funzioni delle applicazioni CRM ed ERP.

Un esempio di intelligenza artificiale generativa che crea codice software tramite un prompt dell'utente. In questo caso, il chatbot Einstein di Salesforce è abilitato tramite l'uso del modello linguistico di grandi dimensioni GPT-3.5 di OpenAI.

Ad esempio, il nuovo Microsoft 365 Copilot può essere utilizzato in Word per creare una prima bozza di un documento, risparmiando potenzialmente ore di scrittura, approvvigionamento e modifica. Salesforce ha inoltre annunciato l'intenzione di rilasciare un chatbot basato su GPT da utilizzare con la sua piattaforma CRM.

La maggior parte degli LLM, come GPT-4 di OpenAI, sono preaddestrati come motori di previsione della parola successiva o del contenuto: è così che la maggior parte delle aziende li utilizza, "fuori dagli schemi", per così dire. E mentre i chatbot basati su LLM hanno prodotto la loro quota di errori, i LLM preaddestrati funzionano relativamente bene nel fornire contenuti per lo più accurati e accattivanti che, per lo meno, possono essere utilizzati come punto di partenza.

Molti settori, tuttavia, richiedono algoritmi LLM più personalizzati, quelli che comprendono il loro gergo e producono contenuti specifici per i loro utenti. Gli LLM per il settore sanitario, ad esempio, potrebbero dover elaborare e interpretare cartelle cliniche elettroniche (EHR), suggerire trattamenti o creare un riepilogo sanitario del paziente basato su note mediche o registrazioni vocali. Un LLM sintonizzato sul settore dei servizi finanziari può riassumere le chiamate sugli utili, creare trascrizioni delle riunioni ed eseguire analisi delle frodi per proteggere i consumatori.

In vari settori, garantire un elevato grado di precisione della risposta può essere fondamentale.

È possibile accedere alla maggior parte dei LLM tramite un'interfaccia di programmazione dell'applicazione (API) che consente all'utente di creare parametri o modifiche al modo in cui risponde il LLM. Una domanda o richiesta inviata a un chatbot è chiamata prompt, in quanto l'utente richiede una risposta. I suggerimenti possono essere domande in linguaggio naturale, frammenti di codice o comandi, ma affinché l'LMM svolga il suo lavoro in modo accurato, i suggerimenti devono essere puntuali.

E questa necessità ha dato origine a una nuova competenza: la pronta ingegneria.

Il prompt engineering è il processo di creazione e ottimizzazione dei prompt di testo per modelli linguistici di grandi dimensioni al fine di ottenere i risultati desiderati. "[Aiuta] i LLM per una rapida iterazione nella prototipazione e nell'esplorazione del prodotto, poiché adatta il LLM per allinearsi meglio alla definizione dell'attività in modo rapido e semplice", ha affermato Marshall Choy, vicepresidente senior del prodotto presso SambaNova Systems, una startup della Silicon Valley che produce semiconduttori per l'intelligenza artificiale (AI).

Forse altrettanto importante per gli utenti, il prompt engineering è destinato a diventare una competenza vitale per i professionisti IT e aziendali, secondo Eno Reyes, un ingegnere di machine learning con Hugging Face, una piattaforma guidata dalla comunità che crea e ospita LLM.

Molte persone che conosco nel campo del software, dell’IT e della consulenza utilizzano continuamente il prompt engineering per il loro lavoro personale”, ha affermato Reyes in una risposta via email a Computerworld. "Poiché i LLM diventano sempre più integrati in vari settori, il loro potenziale per aumentare la produttività è immenso."