🕵🏼 Fidarsi è bene, ma non fidarsi è meglio

Un modello AI funziona cercando di predire la risposta più probabile, partendo da tutti gli esempi di testo umano scritti sul web e nei libri.

Quando un modello AI effettua una predizione di queste parole, ha un certo grado di “sicurezza” che siano le “migliori” da scrivere (in modo coerente con tutti i testi che ha visto in fase di addestramento).

Tuttavia non sa qual è la “risposta giusta”, o se un fatto è davvero avvenuto o meno.

Dipende solo da quello che ha visto nei dati di addestramento (e anche li, può sbagliare).

<aside> 💡 Non fidarti MAI al 100% dell’output di una AI, a meno che non prelevi i dati dal contesto che gli hai fornito, o siano presenti sistemi di check automatico robusti.

In generale, se chiedi informazioni a un modello che estrae dalla sua conoscenza, c’è sempre una probabilità di errore o di allucinazione (che varia in base al modello e alla difficoltà del compito).

</aside>

Questo articolo è un tentativo di raccogliere in modo semplificato i problemi più importanti, ma se vuoi approfondire ti consiglio questa ricerca: contiene tutto quello che vorrai mai sapere sui limiti degli LLM, e puoi usarla come referenza per approfondire ulteriori temi.

👉🏼 Challenges in Applications of Large Language Models

🍄 Il problema delle allucinazioni

Quando un modello risponde, potrebbe semplicemente “inventare” la risposta.

Più di frequente inventa solo alcune parti della risposta, rendendo ancora più difficile identificarle.

Quindi non bisogna MAI usare l’AI come fonte primaria di informazioni.

Può essere usata per leggere, riassumere, organizzare informazioni, ma non devi mai fidarti di quelle che “provengono dalla sua conoscenza”.