Intelligenza Artificiale

Phi-4, un LLM amletico

Phi-4, un LLM amletico

Dopo due lunghi mesi sono potuto tornare a giocare con LM Studio e questo articolo avrebbe dovuto descrivere, quasi in diretta, le risposte di alcuni modelli che avevo appena installato. Poi però le cose mi sono sfuggite di mano, perché il primo modello messo sotto la lente di ingrandimento, Phi-4 a 4 bit di Microsoft, ha mostrato dei comportamenti strani, che valeva la pena descrivere in dettaglio. Da quel momento l’articolo che state per leggere si è scritto praticamente da solo!
Meglio le galline

Meglio le galline

– Fonte: Henrique S. Ruzzon su Unsplash. Mentre scrivevo il post precedente mi sono imbattuto in questo articolo del 14 marzo 2022, The Bird Process In Mac OS X, che si trovava ai primissimi posti dei risultati di Google.
Bing bangs

Bing bangs

Era almeno un mese che Skype cercava in ogni modo di convincermi ad utilizzare Bing (eh sì, ogni tanto devo ancora usare Skype). Nei giorni scorsi ho deciso di dargli una possibilità. Dovevo recarmi all’aeroporto in piena ora di punta e mi sono detto: “Perché non chiedere a Bing se c’è traffico sulla strada, invece di affidarmi alle solite Mappe e Google Maps?”
Quando i dati sono troppi

Quando i dati sono troppi

– Fonte: Afrah su Unsplash. I sistemi di intelligenza artificiale moderni vengono addestrati con enormi quantità di dati, perché l’idea di fondo è che più dati ci sono, meglio è. Esempio tipico è ChatGPT, a cui è stato fatto leggere e digerire praticamente tutto lo scibile umano, o almeno tutto lo scibile umano presente su internet. Ma, nonostante questa montagna di conoscenza, ChatGPT non capisce quello che legge, e nelle sue risposte mette solo in fila una parola dopo l’altra, calcolando la probabilità che una nuova parola segua quella che ha appena generato.1
ChatGPT al capolinea

ChatGPT al capolinea

– Fonte: Donald Giannatti su Unsplash. Chiunque ne sappia un po’ di queste faccende lo aveva capito da tempo: i modelli linguistici di grandi dimensioni (Large Language Models, LLM), come GPT-3/4 di OpenAI, da cui deriva la stella del momento ChatGPT, o come LLaMA di Facebook, Alpaca di Stanford e compagnia bella, non hanno un futuro, sono troppo complicati, avidi di risorse e costosi per essere sostenibili a lungo termine.
LaMDA, ovvero intelligenza vo' cercando

LaMDA, ovvero intelligenza vo' cercando

Le cronache di qualche settimana fa hanno ripreso a gran voce la notizia secondo cui LaMDA, un generatore di conversazione (chatbot) basato sull’intelligenza artificiale sviluppato da Google, potrebbe aver mostrato segni di (auto)coscienza, diventando così il primo essere artificiale dotato di sensibilità e di coscienza di sé (in italiano si possono leggere questi articoli su Repubblica, il Corriere, ancora Repubblica, e poi Linkiesta, Avvenire e Wired).