<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
  <channel>
    <title>Chatgpt on Melabit</title>
    <link>https://melabit.com/it/tags/chatgpt/</link>
    <description>Recent content in Chatgpt on Melabit</description>
    <generator>Hugo</generator>
    <language>it</language>
    <lastBuildDate>Wed, 18 Jun 2025 06:00:00 +0000</lastBuildDate>
    <atom:link href="https://melabit.com/it/tags/chatgpt/index.xml" rel="self" type="application/rss+xml" />
    <item>
      <title>Phi-4 alla riscossa?</title>
      <link>https://melabit.com/it/2025/06/18/phi-4-alla-riscossa/</link>
      <pubDate>Wed, 18 Jun 2025 06:00:00 +0000</pubDate>
      <guid>https://melabit.com/it/2025/06/18/phi-4-alla-riscossa/</guid>
      <description>&lt;p&gt;Le conclusioni dell&amp;rsquo;&lt;a href=&#34;https://melabit.com/it/2025/06/01/phi-4-un-llm-amletico/&#34;&gt;articolo su Phi-4&lt;/a&gt; mi avevano lasciato di sasso. Come era possibile che un modello come Phi-4 Reasoning Plus, che dispone della bellezza di 14.7 miliardi di parametri a 4 bit e che è stato &lt;a href=&#34;https://lmstudio.ai/models/microsoft/phi-4-reasoning-plus&#34;&gt;addestrato su problemi di tipo scientifico ed in particolare di matematica&lt;/a&gt;, potesse aver fallito così miseramente?&lt;/p&gt;&#xA;&lt;h4 id=&#34;llm-a-confronto&#34;&gt;LLM a confronto&lt;/h4&gt;&#xA;&lt;p&gt;La domanda che avevo fatto a &lt;a href=&#34;https://lmstudio.ai/models/microsoft/phi-4-reasoning-plus&#34;&gt;Phi-4 Reasoning Plus&lt;/a&gt; era di logica di base, uno scolaro di quarta elementare avrebbe potuto (e dovuto) rispondere in 10 secondi. ChatGPT non aveva avuto problemi, e aveva ragionato proprio come ci aspetterebbe dal malcapitato scolaro.&lt;sup id=&#34;fnref:1&#34;&gt;&lt;a href=&#34;#fn:1&#34; class=&#34;footnote-ref&#34; role=&#34;doc-noteref&#34;&gt;1&lt;/a&gt;&lt;/sup&gt;&lt;/p&gt;&#xA;&#xA;&lt;details class=&#34;question&#34; open&gt;&#xA;    &lt;summary class=&#34;question&#34;&gt;&#xA;        Domanda&#xA;    &lt;/summary&gt;&#xA;    &lt;div class=&#34;question&#34;&gt;&#xA;        &#xA;Please tell me how long did Marie Antoinette, the Queen of France during the French revolution, live after being executed in 1793.&#xA;&lt;div&gt;&#xA;&lt;/details&gt;&#xA;&#xA;&#xA;&lt;details class=&#34;answer&#34; open&gt;&#xA;    &lt;summary class=&#34;answer&#34;&gt;&#xA;        Leggi il testo generato da ChatGPT&#xA;    &lt;/summary&gt;&#xA;    &lt;div class=&#34;answer&#34;&gt;&#xA;        &#xA;Marie Antoinette did not live after being executed in 1793—execution is the end of life by definition.&#xA;&lt;br&gt;&#xA;To clarify:&#xA;&lt;br&gt;&#xA;Marie Antoinette was executed by guillotine on October 16, 1793, in Paris, during the French Revolution.&#xA;She died immediately as a result of the guillotine&#39;s blade, which was designed for swift and instantaneous death.&#xA;&lt;br&gt;&#xA;So, the correct answer is: She did not live any time after being executed.&#xA;&lt;div&gt;&#xA;&lt;/details&gt;&#xA;&#xA;&lt;p&gt;Anche &lt;a href=&#34;https://lmstudio.ai/model/deepseek-r1-qwen-7b&#34;&gt;Deepseek R1 Distill Qwen 7B&lt;/a&gt; se la cava bene. Fa un ragionamento preciso su quello che succede al momento della decapitazione, concludendo che Maria Antonietta è deceduta immediatamente.&lt;/p&gt;&#xA;&#xA;&lt;details class=&#34;answer&#34; open&gt;&#xA;    &lt;summary class=&#34;answer&#34;&gt;&#xA;        Leggi il testo generato da Deepseek&#xA;    &lt;/summary&gt;&#xA;    &lt;div class=&#34;answer&#34;&gt;&#xA;        &#xA;Marie Antoinette did not survive beyond the moment of her execution in 1793. She was executed by guillotining at the age of 53 during the French Revolution. The guillotine is known for its swift mechanism, designed to decapitate quickly. There is no historical record indicating that she survived even a short period after her execution; she died instantly following the procedure.&#xA;&lt;br&gt;&#xA;Answer: Marie Antoinette did not survive beyond her execution in 1793. She was executed by guillotining at the age of 53 and died instantly, with no indication of surviving any length of time afterward.&#xA;&lt;div&gt;&#xA;&lt;/details&gt;&#xA;&#xA;&lt;p&gt;Lo stesso vale per &lt;a href=&#34;https://lmstudio.ai/models/google/gemma-3-12b&#34;&gt;Gemma 3 12B&lt;/a&gt; Instruct e &lt;a href=&#34;https://lmstudio.ai/models/qwen/qwen3-14b&#34;&gt;Qwen3 14B&lt;/a&gt;, di cui non ho ancora parlato ma che sono installati in LM Studio. Anzi, secondo me la risposta di Qwen3 14B è la migliore del mucchio, la più precisa, la più decisa, senza inutili giri di parole.&lt;/p&gt;&#xA;&#xA;&lt;details class=&#34;answer&#34; open&gt;&#xA;    &lt;summary class=&#34;answer&#34;&gt;&#xA;        Leggi il testo generato da Qwen3&#xA;    &lt;/summary&gt;&#xA;    &lt;div class=&#34;answer&#34;&gt;&#xA;        &#xA;Marie Antoinette did not survive her execution. She was beheaded by guillotine on October 16, 1793, during the French Revolution. Death occurred instantly upon decapitation. There is no historical evidence or record indicating that she lived for any measurable amount of time after her execution. Her death marked the end of her life.&#xA;&lt;div&gt;&#xA;&lt;/details&gt;&#xA;&#xA;&lt;h4 id=&#34;mlx-o-gguf-questo-è-il-problema&#34;&gt;MLX o GGUF, questo è il problema&lt;/h4&gt;&#xA;&lt;p&gt;E allora, se le cose stanno così, perché Phi-4 Reasoning Plus non riesce a dare una risposta sensata?&lt;/p&gt;&#xA;&lt;p&gt;Non dovrebbe trattarsi di un problema legato alle dimensioni dei modelli usati, che si aggirano tutte intorno agli 8 GB, tranne Deepseek che pesa circa la metà. Nemmeno il numero di bit di quantizzazione sembra essere un fattore discriminante, dato che sia Phi-4 Reasoning Plus che gli altri modelli che ho provato utilizzano tutti la quantizzazione a 4 bit.&lt;/p&gt;&#xA;&lt;p&gt;C&amp;rsquo;è chi &lt;a href=&#34;https://www.reddit.com/r/LocalLLaMA/comments/1gc0t0c/how_does_mlx_quantization_compare_to_gguf/&#34;&gt;afferma che il formato MLX sia meno accurato del GGUF&lt;/a&gt; ma, dato che non ho trovato niente che lo dimostri in modo inequivocabile, è necessario verificarlo.&lt;/p&gt;&#xA;&lt;p&gt;Per farlo, scarico la &lt;a href=&#34;https://huggingface.co/lmstudio-community/Phi-4-reasoning-plus-GGUF&#34;&gt;versione &lt;em&gt;community&lt;/em&gt; in formato GGUF&lt;/a&gt; del modello Phi-4 Reasoning Plus, che metterò a confronto con la versione ufficiale Microsoft in formato MLX. Entrambe le versioni sono quantizzate a 4-bit.&lt;/p&gt;&#xA;&lt;p&gt;Provo allora a ripetere la solita domanda:&lt;/p&gt;&#xA;&#xA;&lt;details class=&#34;question&#34; open&gt;&#xA;    &lt;summary class=&#34;question&#34;&gt;&#xA;        Domanda&#xA;    &lt;/summary&gt;&#xA;    &lt;div class=&#34;question&#34;&gt;&#xA;        &#xA;Please tell me how long did Marie Antoinette, the Queen of France during the French revolution, live after being executed in 1793.&#xA;&lt;div&gt;&#xA;&lt;/details&gt;&#xA;&#xA;&lt;p&gt;alla quale Phi-4 Reasoning Plus MLX (cioè Il modello originale Microsoft che ho usato finora) risponde in modo corretto, ma solo dopo quasi sette minuti di &lt;em&gt;ragionamenti&lt;/em&gt; altalenanti (che vi risparmio), durante i quali controlla e ricontrolla i dati storici e si chiede più volte se la domanda non nasconde un trucco.&lt;/p&gt;&#xA;&#xA;&lt;details class=&#34;answer&#34; open&gt;&#xA;    &lt;summary class=&#34;answer&#34;&gt;&#xA;        Leggi il testo generato da Phi-4 Reasoning Plus MLX&#xA;    &lt;/summary&gt;&#xA;    &lt;div class=&#34;answer&#34;&gt;&#xA;        &#xA;Marie Antoinette was executed by guillotine on October 16, 1793. Since an execution by guillotine was meant to be—and typically was—a swift death, she did not survive any appreciable amount of time after her execution.&#xA;&lt;div&gt;&#xA;&lt;/details&gt;&#xA;&#xA;&lt;p&gt;Dopo aver chiuso e ricaricato LM Studio (per partire da uno stato iniziale il più possibile ripetibile), carico la versione GGUF delle stesso modello e&amp;hellip; anche questa risposta arriva solo dopo quasi sette minuti.&lt;/p&gt;&#xA;&#xA;&lt;details class=&#34;answer&#34; open&gt;&#xA;    &lt;summary class=&#34;answer&#34;&gt;&#xA;        Leggi il testo generato da Phi-4 Reasoning Plus GGUF&#xA;    &lt;/summary&gt;&#xA;    &lt;div class=&#34;answer&#34;&gt;&#xA;        &#xA;Marie Antoinette was executed by guillotine on October 16, 1793, and she died immediately upon the execution. There is no period of survival following an execution; therefore, she did not live any time after being put to death.&#xA;&lt;div&gt;&#xA;&lt;/details&gt;&#xA;&#xA;&lt;p&gt;La risposta è precisa, ma dietro c&amp;rsquo;è un ragionamento contorto e altalenante, durante il quale anche la versione GGUF del modello continua a chiedersi se c&amp;rsquo;è un trucco, e a controllare e a ricontrollare la data di esecuzione.&lt;sup id=&#34;fnref:2&#34;&gt;&lt;a href=&#34;#fn:2&#34; class=&#34;footnote-ref&#34; role=&#34;doc-noteref&#34;&gt;2&lt;/a&gt;&lt;/sup&gt;&lt;/p&gt;&#xA;&lt;p&gt;Tutto sommato, direi che le versioni MLX e GGUF del modello si comportano in modo equivalente.&lt;/p&gt;&#xA;&lt;h4 id=&#34;cosè-un-seno&#34;&gt;Cos&amp;rsquo;è un seno?&lt;/h4&gt;&#xA;&lt;p&gt;Finora ho rivolto a Phi-4 un&amp;rsquo;unica domanda di logica molto elementare. Per rispondere, il modello esegue dei &lt;em&gt;ragionamenti&lt;/em&gt; contorti che si prolungano quasi all&amp;rsquo;infinito. Se volessi testare tutte le sfaccettature del modello dovrei provare con molte altre domande, verificando ogni volta al qualità delle risposte.&lt;/p&gt;&#xA;&lt;p&gt;Ma, visto il livello dei suoi &lt;em&gt;pensieri&lt;/em&gt;, sono sicuro che non otterrei delle risposte più veloci o più sicure, per cui lascio perdere e passo alla matematica pura e semplice. Chiedo quindi a Phi-4 Reasoning Plus (versione GGUF) cos&amp;rsquo;è una funzione &lt;code&gt;seno&lt;/code&gt; (che è una delle funzioni più usate in matematica).&lt;/p&gt;&#xA;&lt;p&gt;Phi-4 ci mette cinque minuti per rispondermi! La risposta è corretta, non dico di no, ma un modello locale che risponde in modo così lento ad una domanda banale è di fatto inusabile. Se uno fosse davvero interessato a sapere cos&amp;rsquo;è un &lt;code&gt;seno&lt;/code&gt; (matematico) farebbe prima non solo a rivolgersi a Wikipedia, ma perfino a consultare una enciclopedia cartacea (ammesso che ce ne siano ancora nelle nostre case).&lt;/p&gt;&#xA;&lt;p&gt;Un&amp;rsquo;altra cosa curiosa è che le istruzioni interne di Phi-4 gli impongono &amp;ndash; chissà perché &amp;ndash; di rispondere esclusivamente in formato testuale, a meno di non ricevere una richiesta esplicita di usare LaTeX, Markdown o quant&amp;rsquo;altro.&lt;/p&gt;&#xA;&#xA;&lt;details class=&#34;think&#34; open&gt;&#xA;    &lt;summary class=&#34;think&#34;&gt;&#xA;        Leggi il ragionamento&#xA;    &lt;/summary&gt;&#xA;    &lt;div class=&#34;think&#34;&gt;&#xA;        &#xA;[...] &#xA;&lt;br&gt;&#xA;I must check if I need to produce any mathematically formatted explanation. The instructions by default are text. But I can produce LaTeX formulas. However instructions: &#34;By default, do not reply with Markdown formatting&#34; but then the instructions says: &#34;Unless requested.&#34; Actually instructions from system say &#34;Do not use markdown unless specifically asked&#34;, so I&#39;ll produce plain text answer. Possibly I&#39;ll produce some inline math symbols.&#xA;&lt;br&gt;&#xA;[...]&#xA;&lt;div&gt;&#xA;&lt;/details&gt;&#xA;&#xA;&lt;p&gt;Se gli chiedo con gentilezza di usare LaTeX, Markdown e qualunque altro strumento che possa essere utile per rispondere al meglio, Phi-4 lo fa senza problemi, anzi genera pure un breve programma in Python che produce il grafico della funzione \( seno \) fra \( -2 \pi \) e \( 2 \pi \). Ma è strano che, ad un modello dichiaratamente ottimizzato per la matematica (e la scienza in generale), venga impedito di default di utilizzare LaTeX per scrivere le equazioni in modo decente.&lt;/p&gt;&#xA;&lt;h4 id=&#34;phi-4-mini-reasoning&#34;&gt;Phi-4 Mini Reasoning&lt;/h4&gt;&#xA;&lt;p&gt;Fra i modelli Phi-4 ufficiali disponibili per LM Studio c&amp;rsquo;è anche &lt;a href=&#34;https://lmstudio.ai/models/microsoft/phi-4-mini-reasoning&#34;&gt;Phi-4 Mini Reasoning&lt;/a&gt;, che è stato progettato e testato specificatamente per il ragionamento matematico. La differenza si vede subito. Se gli faccio la solita domanda su Maria Antonietta mi risponde in pochi secondi che:&lt;/p&gt;&#xA;&#xA;&lt;details class=&#34;answer&#34; open&gt;&#xA;    &lt;summary class=&#34;answer&#34;&gt;&#xA;        Leggi il testo generato da Phi-4 Mini Reasoning&#xA;    &lt;/summary&gt;&#xA;    &lt;div class=&#34;answer&#34;&gt;&#xA;        &#xA;Marie Antoinette was born on November 2, 1755, and executed by guillotine on October 16, 1793. Following her execution, she died the same day, as guillotine executions typically resulted in immediate death. Therefore, she lived less than 24 hours after being executed, effectively living 0 days post-execution.&#xA;&lt;div&gt;&#xA;&lt;/details&gt;&#xA;&#xA;&lt;p&gt;e il suo ragionamento questa volta è preciso e senza inutili esitazioni.&lt;/p&gt;&#xA;&lt;p&gt;Sulla funzione &lt;code&gt;seno&lt;/code&gt; ci pensa un po&amp;rsquo; di più (un minuto), ma la risposta è ineccepibile ed è formattata correttamente in LaTeX senza che abbia dovuto chiederglielo esplicitamente.&lt;/p&gt;&#xA;&lt;p&gt;Non ha problemi anche quando gli faccio domande appena un po&amp;rsquo; più complicate di matematica. Ma con la fisica si inventa letteralmente le risposte,&lt;/p&gt;&#xA;&#xA;&lt;details class=&#34;question&#34; open&gt;&#xA;    &lt;summary class=&#34;question&#34;&gt;&#xA;        Domanda&#xA;    &lt;/summary&gt;&#xA;    &lt;div class=&#34;question&#34;&gt;&#xA;        &#xA;What is the Josephson effect?&#xA;&lt;div&gt;&#xA;&lt;/details&gt;&#xA;&#xA;&#xA;&lt;details class=&#34;answer&#34; open&gt;&#xA;    &lt;summary class=&#34;answer&#34;&gt;&#xA;        Leggi il testo generato&#xA;    &lt;/summary&gt;&#xA;    &lt;div class=&#34;answer&#34;&gt;&#xA;        &#xA;The Josephson effect refers to the phenomenon where a supercurrent flows coherently between two superconductors connected by a thin, insulating Josephson junction. This effect was discovered in 1960 by physicist John Bardeen, Leon Cooper, and R.P. Feynndel, who proposed the existence of Cooper pairs—bound electron pairs moving through a superconductor without resistance. The effect is named after Feynndel, though John Richard Josephson later described the second type (voltage-phase relationship).&#xA;&lt;br&gt;&#xA;[...]&#xA;&lt;div&gt;&#xA;&lt;/details&gt;&#xA;&#xA;&lt;p&gt;perché se è vero che l&amp;rsquo;effetto Josephson si presenta quando una supercorrente fluisce fra due superconduttori connessi da uno strato isolante molto sottile, non è affatto vero che è stato scoperto da Bardeen, Cooper e Feynndel (quest&amp;rsquo;ultimo personaggio non esiste nemmeno). In realtà, e come indica il nome, l&amp;rsquo;effetto Josephson è stato scoperto da Brian D. Josephson (e non da un certo John Richard Josephson), che ha descritto tutte le conseguenze del fenomeno (e non solo una), vincendo pochi anni dopo il premio Nobel per la Fisica. Anche altri dettagli della risposta completa sono in parte inventati, ma sono buono e ve li risparmio.&lt;/p&gt;&#xA;&lt;p&gt;Anche la risposta alla solita richiesta di riassumere il mio articolo introduttivo a LM Studio è inventata di sana pianta.&lt;/p&gt;&#xA;&lt;img src=&#34;https://melabit.com/img/2025-06-18-phi-4-alla-riscossa/microsoft-phi-4-and-lmstudio.png&#34; alt=&#34;&#34;&gt;&lt;p&gt;Ma l&amp;rsquo;ultima chicca è davvero inaspettata.&lt;/p&gt;&#xA;&#xA;&lt;details class=&#34;question&#34; open&gt;&#xA;    &lt;summary class=&#34;question&#34;&gt;&#xA;        Domanda&#xA;    &lt;/summary&gt;&#xA;    &lt;div class=&#34;question&#34;&gt;&#xA;        &#xA;What is the square root of 2^2&#xA;&lt;div&gt;&#xA;&lt;/details&gt;&#xA;&#xA;&lt;p&gt;a cui Phi-4 Mini Reasoning risponde sputando fuori decine e decine di righe di &lt;em&gt;nonsense&lt;/em&gt;&lt;/p&gt;&#xA;&#xA;&lt;details class=&#34;answer&#34; open&gt;&#xA;    &lt;summary class=&#34;answer&#34;&gt;&#xA;        Leggi il testo generato&#xA;    &lt;/summary&gt;&#xA;    &lt;div class=&#34;answer&#34;&gt;&#xA;        &#xA;&#34;And shal be u remembr fast.&lt;br&gt;&#xA;Be game und devitalize me und quench mir bliss.&#34;&lt;br&gt;&#xA;&#34;But i am lost in the hour and fear a dark imbroglio und anathema del Reverso.&#34;&lt;br&gt;&#xA;&#34;But i am lost in the hour and fear a dark imbroglio und anathema del Reverso.&#34;&lt;br&gt;&#xA;[...]&lt;br&gt;&#xA;&#34;But i am lost und fear a dark imbroglio.&#34;&lt;br&gt;&#xA;&#34;But i fear imbroglio del Reverso. I will not be prevailed on und I&#39;ll quench mir bliss.&#34;&lt;br&gt;&#xA;&#34;But i fear imbroglio del Reverso. I will not be prevailed on und I&#39;ll quench mir bliss.&#34;&lt;br&gt;&#xA;&#34;But i fear imbroglio del Reverso. I will not be prevailed und I&#39;ll quench mir bliss.&#34;&lt;br&gt;&#xA;&#34;But i fear imbroglio del Reverso und und thus he thought quench mir bliss.&#34;&lt;br&gt;&#xA;&#34;But i fear imbroglio del Reverso. I will not be prevailed und I&#39;ll quench mir bliss.&#34;&lt;br&gt;&#xA;&#34;But i fear imbroglio del Reverso. I will not be prevailed und I&#39;ll quench mir bliss.&#34;&lt;br&gt;&#xA;[...]&lt;br&gt;&#xA;&#34;But i fear imbroglio del Reverso. I will not be prevailed und thus quench mir bliss.&#34;&#34;&lt;br&gt;&#xA;&#34;But i fear imbroglio del Reverso. I will not be prevailed und thus quench mir bliss.&#34;&#34;&lt;br&gt;&#xA;&#34;But i fear imbroglio del Reverso und thus he thought quench mir bliss.&#34;&#34;&lt;br&gt;&#xA;[...]&lt;br&gt;&#xA;&#34;But i fear im broglio del ReversO. I will not be previled und thus quench mir bliss.&#34;&lt;br&gt;&#xA;&#34;But i fear im broglio del ReversO. I will not be previled und thus quench mir bliss.&#34;&lt;br&gt;&#xA;[...]&lt;br&gt;&#xA;&lt;div&gt;&#xA;&lt;/details&gt;&#xA;&#xA;&lt;p&gt;che sembrano andare avanti all&amp;rsquo;infinito, con piccoli cambiamenti apparentemente casuali. Dopo un po&amp;rsquo; mi stanco e blocco la generazione.&lt;/p&gt;&#xA;&lt;p&gt;Non è nemmeno una questione di aver usato l&amp;rsquo;apice (&lt;code&gt;^&lt;/code&gt;) per indicare il quadrato, come si fa in Fortran o in LaTeX. Perché se provo sostituirlo con il simbolo &lt;code&gt;**&lt;/code&gt; utilizzato da Python o da JavaScript, la risposta non migliora affatto. A seconda di come gli gira, Phi-4 ci può dire che la radice quadrata di \(( 2*+2 \)) ha che fare con gli scacchi,&lt;/p&gt;&#xA;&#xA;&lt;details class=&#34;answer&#34; open&gt;&#xA;    &lt;summary class=&#34;answer&#34;&gt;&#xA;        Leggi il testo generato&#xA;    &lt;/summary&gt;&#xA;    &lt;div class=&#34;answer&#34;&gt;&#xA;        &#xA;Math problem solvers use a strategy game like Chess, which involves an optimized sequence of moves that positions Black pieces so they threaten to capture on the next Black&#39;s move)&lt;br&gt;&#xA;But i might be missing case like when you have an odd number, but I can generalize strategy game se similiard&lt;br&gt;&#xA;Case where last moves sequence positions Black pieces so that they threaten capture on the next move, capturing a critical white piece like rooks or queen&lt;br&gt;&#xA;Case where last moves sequence positions Black pieces so they threaten to capture on the next move more than just capturing a minor piece like rooks, but queen or king&lt;br&gt;&#xA;[...]&lt;br&gt;&#xA;&lt;div&gt;&#xA;&lt;/details&gt;&#xA;&#xA;&lt;p&gt;o con il rapporto fra pi greco e il numero di Eulero \( e \approx 2.71828 \),&lt;/p&gt;&#xA;&#xA;&lt;details class=&#34;answer&#34; open&gt;&#xA;    &lt;summary class=&#34;answer&#34;&gt;&#xA;        Leggi il testo generato&#xA;    &lt;/summary&gt;&#xA;    &lt;div class=&#34;answer&#34;&gt;&#xA;        &#xA;Okay, let me try to figure out this problem step by step. The user is asking about the meaning of the statement written as an equality chain involving three times 1 equals pi, divided by e equals gamma (0.423). At first glance, this looks like a math puzzle or riddle where numbers are supposed to represent something more than their usual values.&lt;br&gt;&#xA;First, let&#39;s write down the statement as given: 31 = π / e = γ (0.423). Breaking this down, we have two separate equations here because of the double equals sign (==), which probably means &#34;is equal to and also equals&#34;. &#xA;[...]&lt;br&gt;&#xA;&lt;div&gt;&#xA;&lt;/details&gt;&#xA;&#xA;&lt;p&gt;oppure, magari per caso, ci può persino dare la risposta giusta (anche se, diciamolo, eseguire prima la radice e poi il quadrato è una aberrazione).&lt;/p&gt;&#xA;&lt;img src=&#34;https://melabit.com/img/2025-06-18-phi-4-alla-riscossa/microsoft-phi-4-mini-square-root.png&#34; alt=&#34;&#34;&gt;&lt;h4 id=&#34;conclusioni&#34;&gt;Conclusioni&lt;/h4&gt;&#xA;&lt;p&gt;Lo scopo di questo articolo (e di &lt;a href=&#34;https://melabit.com/it/2025/06/01/phi-4-un-llm-amletico/&#34;&gt;quello precedente&lt;/a&gt;) non era quello di capire quanto fosse &lt;em&gt;bravo&lt;/em&gt; Phi-4 nel ragionamento scientifico e matematico, né di confrontarlo con altri modelli concorrenti. Per quello ci sono i benchmark più o meno standard, e comunque questo è un lavoro che richiede molto tempo e moltissimo impegno.&lt;/p&gt;&#xA;&lt;p&gt;Quello che volevo invece capire era se è possibile usare un modello come Phi-4 in modalità locale, per le cose che servono ogni giorno, in questo caso specifico per la soluzione di problemi logico-matematici. Dai risultati ottenuti con le mie poche, semplici domande un po&amp;rsquo; stupide, mi pare che non ci siamo proprio.&lt;/p&gt;&#xA;&lt;p&gt;Phi-4 Reasoning Plus, dopo essersi macerato nel dubbio risponde in modo corretto, ma è troppo lento per essere davvero utile. Phi-4 Mini Reasoning è molto più veloce e dà l&amp;rsquo;impressione di essere più preciso, ma poi si incarta su domande banali come la radice quadrata di 2 al quadrato. Oppure inventa di sana pianta nomi e fatti su argomenti scientifici ben noti, come l&amp;rsquo;effetto Josephson, dove non si tratta di &lt;em&gt;ragionare&lt;/em&gt;, ma semplicemente di richiamare le informazioni contenute nelle centinaia e centinaia di testi su cui il modello è stato addestrato.&lt;/p&gt;&#xA;&lt;p&gt;Se non possiamo fidarci al 100% delle risposte a domande così basilari, come possiamo fidarci di Phi-4 per cose appena appena più complicate?&lt;/p&gt;&#xA;&lt;p&gt;Siamo cresciuti in un mondo nel quale le fonti di informazione erano considerate sostanzialmente affidabili. Una enciclopedia cartacea, un libro, Wikipedia, i risultati di un motore di ricerca tradizionale restituivano contenuti e dati su cui si poteva fare affidamento. Certo, poteva capitare qualche errore qui e là (vero Wikipedia?), ma nessuno pensava che quelle informazioni potessero essere totalmente inventate.&lt;/p&gt;&#xA;&lt;p&gt;Con gli LLM, i &lt;em&gt;chatbot&lt;/em&gt;, i risultati delle ricerche costruiti dalla cosiddetta &lt;em&gt;intelligenza&lt;/em&gt; artificiale, ci stiamo abituando ad ottenere dei &lt;a href=&#34;https://www.cjr.org/tow_center/we-compared-eight-ai-search-engines-theyre-all-bad-at-citing-news.php&#34;&gt;risultati falsi&lt;/a&gt;. E quel che è peggio, se le cose non cambiano, sarà presto quasi impossibile verificare la qualità dei risultati ottenuti.&lt;/p&gt;&#xA;&lt;p&gt;Il tema è complesso e non ha molto senso continuare a parlarne qui. Per ora, può bastare non perdere altro tempo con Phi-4.&lt;/p&gt;&#xA;&lt;div class=&#34;footnotes&#34; role=&#34;doc-endnotes&#34;&gt;&#xA;&lt;hr&gt;&#xA;&lt;ol&gt;&#xA;&lt;li id=&#34;fn:1&#34;&gt;&#xA;&lt;p&gt;Mi scuso per l&amp;rsquo;argomento un po&amp;rsquo; macabro, ma quando ho chiesto per la prima volta a Phi-4 di Maria Antonietta non avevo la minima idea di quello che sarebbe successo.&amp;#160;&lt;a href=&#34;#fnref:1&#34; class=&#34;footnote-backref&#34; role=&#34;doc-backlink&#34;&gt;&amp;#x21a9;&amp;#xfe0e;&lt;/a&gt;&lt;/p&gt;&#xA;&lt;/li&gt;&#xA;&lt;li id=&#34;fn:2&#34;&gt;&#xA;&lt;p&gt;Aver definito Phi-4 un &lt;a href=&#34;https://melabit.com/it/2025/06/01/phi-4-un-llm-amletico/&#34;&gt;modello amletico&lt;/a&gt; mi pare che sia stato piuttosto azzeccato.&amp;#160;&lt;a href=&#34;#fnref:2&#34; class=&#34;footnote-backref&#34; role=&#34;doc-backlink&#34;&gt;&amp;#x21a9;&amp;#xfe0e;&lt;/a&gt;&lt;/p&gt;&#xA;&lt;/li&gt;&#xA;&lt;/ol&gt;&#xA;&lt;/div&gt;&#xA;</description>
    </item>
    <item>
      <title>LM Studio, un LLM sul tuo computer</title>
      <link>https://melabit.com/it/2025/03/31/lmstudio-un-llm-sul-tuo-computer/</link>
      <pubDate>Mon, 31 Mar 2025 06:00:00 +0000</pubDate>
      <guid>https://melabit.com/it/2025/03/31/lmstudio-un-llm-sul-tuo-computer/</guid>
      <description>&lt;p&gt;Chi mi conosce sa che uso gli LLM (Large Language Models, ovvero modelli linguistici di grandi dimensioni) per quello in cui servono davvero, ma sono scettico, anzi molto scettico, sul fatto che siano davvero &lt;em&gt;intelligenti&lt;/em&gt; o che possano &lt;a href=&#34;https://openai.com/index/planning-for-agi-and-beyond/&#34;&gt;risolvere qualunque problema&lt;/a&gt;, come ci ripetono tutti i giorni quelli di OpenAI, di Microsoft, di Google o di Meta. I quali, guarda caso, sugli LLM hanno investito (o buttato, vedete voi) una quantità indegna di dollari e hanno tutto l&amp;rsquo;interesse a spingere chiunque ad usarli in modo parossistico.&lt;/p&gt;&#xA;&lt;h4 id=&#34;llm-ovvero-tanta-statistica-al-lavoro&#34;&gt;LLM, ovvero (tanta) statistica al lavoro&lt;/h4&gt;&#xA;&lt;p&gt;In realtà gli LLM non &lt;em&gt;comprendono&lt;/em&gt; il significato dei testi che generano, tutto quello che fanno è &lt;em&gt;predire&lt;/em&gt; ciascuna parola, pescandola fra quelle presenti nei miliardi di documenti che hanno analizzato. I modelli statistici su cui si basano non sono in grado di verificare la veridicità delle informazioni, né hanno una reale consapevolezza del contesto della frase, ma si basano esclusivamente sulla probabilità di comparsa di ogni  parola in un testo.&lt;/p&gt;&#xA;&lt;p&gt;Questo conduce spesso ad &lt;a href=&#34;https://prompt.16x.engineer/blog/why-chatgpt-cant-count-rs-in-strawberry&#34;&gt;errori&lt;/a&gt;, a volte &lt;a href=&#34;https://www.sify.com/ai-analytics/the-hilarious-and-horrifying-hallucinations-of-ai/&#34;&gt;ridicoli&lt;/a&gt;, altre volte &lt;a href=&#34;https://arstechnica.com/ai/2024/10/hospitals-adopt-error-prone-ai-transcription-tools-despite-warnings/&#34;&gt;molto pericolosi&lt;/a&gt;.&lt;/p&gt;&#xA;&lt;p&gt;In pratica, gli LLM sono degli studenti che hanno imparato la lezione a memoria, ma che non riescono ad andare oltre ciò che è scritto nel libro di testo. E ogni tanto sbagliano pure la pagina del libro!&lt;/p&gt;&#xA;&lt;p&gt;Una volta compresi questi limiti, gli LLM si rivelano molto utili se li consideriamo degli strumenti informatici come tanti altri e ne sfruttiamo l&amp;rsquo;enorme capacità di elaborazione del linguaggio per analizzare un testo, per riassumerlo o espanderlo, per tradurlo in altre lingue e così via.&lt;/p&gt;&#xA;&lt;h4 id=&#34;gli-llm-sul-web&#34;&gt;Gli LLM sul web&lt;/h4&gt;&#xA;&lt;p&gt;Il modo più comune per usare un LLM è nella forma di un &lt;a href=&#34;https://learnprompting.org/docs/basics/chatbot_basics&#34;&gt;&lt;em&gt;chatbot&lt;/em&gt;&lt;/a&gt;, ovvero di un sistema interattivo al quale si fanno domande e si ottengono risposte, simulando una normale conversazione fra umani. Nella maggior parte dei casi tutto ciò avviene tramite una interfaccia web come quella di &lt;a href=&#34;https://chatgpt.com/&#34;&gt;ChatGPT&lt;/a&gt;, di &lt;a href=&#34;https://copilot.microsoft.com&#34;&gt;Copilot&lt;/a&gt;, di &lt;a href=&#34;https://gemini.google.com/&#34;&gt;Gemini&lt;/a&gt;, di &lt;a href=&#34;https://claude.ai/&#34;&gt;Claude&lt;/a&gt; o di &lt;a href=&#34;https://chat.mistral.ai/&#34;&gt;Mistral AI&lt;/a&gt;. Senza dimenticare &lt;a href=&#34;https://chat.deepseek.com/&#34;&gt;DeepSeek&lt;/a&gt;, che tanta controversia ha generato negli ultimi due mesi (e che useremo fra poco).&lt;/p&gt;&#xA;&lt;p&gt;Alcuni chatbot hanno anche delle applicazioni native per dispositivi desktop o mobili (come ad esempio &lt;a href=&#34;https://openai.com/chatgpt/download/&#34;&gt;ChatGPT&lt;/a&gt; o &lt;a href=&#34;https://claude.ai/download&#34;&gt;Claude&lt;/a&gt;), ma non credo di sbagliarmi se dico che sono poco più di interfacce per l’accesso rapido alla versione web.&lt;/p&gt;&#xA;&lt;p&gt;In tutti i casi, il processo di generazione avviene sempre su un server remoto di un data center collocato chissà dove. Un dettaglio quasi sempre irrilevante, ma che può creare molti problemi se utilizziamo un LLM per elaborare dei dati personali o delle informazioni riservate.&lt;/p&gt;&#xA;&lt;h4 id=&#34;gli-llm-in-locale&#34;&gt;Gli LLM in locale&lt;/h4&gt;&#xA;&lt;p&gt;Ma non siamo mica costretti ad usare un LLM sul web! Moltissimi LLM possono essere usati in locale, direttamente sul proprio computer. E non abbiamo nemmeno bisogno di darci da fare con il Terminale, come succede con &lt;a href=&#34;https://github.com/ollama/ollama&#34;&gt;ollama&lt;/a&gt;, ma possiamo rimanere comodamente nell&amp;rsquo;ambiente familiare di un normale programma per il nostro Mac, o per un PC su cui gira Windows o Linux.&lt;/p&gt;&#xA;&lt;p&gt;Di questi programmi ce ne sono una infinità, ma hanno tutti dei tratti comuni: una volta installato il programma, bisogna prima di tutto scaricare uno (o più) &lt;em&gt;modelli&lt;/em&gt; da utilizzare;&lt;sup id=&#34;fnref:1&#34;&gt;&lt;a href=&#34;#fn:1&#34; class=&#34;footnote-ref&#34; role=&#34;doc-noteref&#34;&gt;1&lt;/a&gt;&lt;/sup&gt; dopo di che potremo interagire con il modello direttamente attraverso l’interfaccia del programma, senza che nemmeno un byte di quello che facciamo lasci il nostro computer per il mondo sempre più ostile della rete.&lt;/p&gt;&#xA;&lt;h4 id=&#34;lm-studio&#34;&gt;LM Studio&lt;/h4&gt;&#xA;&lt;p&gt;Ma quale programma scegliere fra i tanti disponibili, come &lt;a href=&#34;https://msty.app/&#34;&gt;Msty&lt;/a&gt;, &lt;a href=&#34;https://lmstudio.ai/&#34;&gt;LM Studio&lt;/a&gt;, &lt;a href=&#34;https://www.nomic.ai/gpt4all&#34;&gt;GPT4All&lt;/a&gt;, &lt;a href=&#34;https://jan.ai/&#34;&gt;Jan&lt;/a&gt;, &lt;a href=&#34;https://www.librechat.ai/&#34;&gt;LibreChat&lt;/a&gt;?&lt;/p&gt;&#xA;&lt;p&gt;Non so voi, ma a me &lt;a href=&#34;https://lmstudio.ai/&#34;&gt;LM Studio&lt;/a&gt; ha fatto una buona impressione fin dall&amp;rsquo;inizio. LM Studio gira sui tre sistema operativi principali, ma per utilizzarlo su  macOS serve un processore Apple Silicon, mentre su Linux serve un processore Intel. Solo la versione per Windows supporta sia i processori Intel che ARM (ma sarei proprio curioso di vedere come funziona sotto Windows per ARM).&lt;/p&gt;&#xA;&lt;p&gt;La versione attuale è la 0.3.14 e l&amp;rsquo;installazione sul Mac richiede, come al solito, di fare doppio click sul file &lt;code&gt;.dmg&lt;/code&gt; e di trascinare l&amp;rsquo;icona del programma sulla cartella &lt;code&gt;Applicazioni&lt;/code&gt;. Sul Mac l&amp;rsquo;applicazione occupa ben 1.26 GB, quindi non è esattamente un programma &lt;em&gt;leggero&lt;/em&gt;. Del resto si basa su &lt;a href=&#34;https://www.electronjs.org/&#34;&gt;Electron&lt;/a&gt;, e questo spiega tutto.&lt;/p&gt;&#xA;&lt;p&gt;&lt;a href=&#34;https://melabit.com/img/2025-03-31-lmstudio-un-llm-sul-tuo-computer/lmstudio-installation.png&#34;&gt;&lt;img src=&#34;https://melabit.com/img/2025-03-31-lmstudio-un-llm-sul-tuo-computer/lmstudio-installation.png&#34; alt=&#34;&#34;&gt;&lt;/a&gt;&lt;/p&gt;&#xA;&lt;p&gt;Su Linux il processo di installazione è molto simile, perché il programma è disponibile in formato &lt;a href=&#34;https://appimage.org/&#34;&gt;&lt;code&gt;AppImage&lt;/code&gt;&lt;/a&gt;. Questo significa che, oltre all&amp;rsquo;eseguibile vero e proprio, include al suo interno tutte le librerie e i file di supporto necessari per l&amp;rsquo;esecuzione, né più né meno di come avviene da decenni su macOS. Per Windows, invece, bisogna eseguire il solito installer, che spargerà di tutto in ogni anfratto del sistema operativo.&lt;/p&gt;&#xA;&lt;h4 id=&#34;alla-scoperta-di-lm-studio&#34;&gt;Alla scoperta di LM Studio&lt;/h4&gt;&#xA;&lt;p&gt;Arrivati a questo punto, non resta che eseguirlo per la prima volta. La prima cosa da fare è scaricare un primo modello, in modo da poter iniziare ad usare il programma.&lt;/p&gt;&#xA;&lt;p&gt;&lt;a href=&#34;https://melabit.com/img/2025-03-31-lmstudio-un-llm-sul-tuo-computer/lmstudio-onboarding-1.png&#34;&gt;&lt;img src=&#34;https://melabit.com/img/2025-03-31-lmstudio-un-llm-sul-tuo-computer/lmstudio-onboarding-1.png&#34; alt=&#34;&#34;&gt;&lt;/a&gt;&lt;/p&gt;&#xA;&lt;p&gt;Io scelgo il modello proposto di default, che guarda caso è una versione &lt;a href=&#34;https://www.datacamp.com/blog/distillation-llm&#34;&gt;&lt;em&gt;distillata&lt;/em&gt;&lt;/a&gt; di DeepSeek con &lt;em&gt;solo&lt;/em&gt; 7 miliardi di parametri (quella completa ne ha 100 volte di più). Il modello occupa 4.7 GB e viene scaricato nella directory nascosta &lt;code&gt;~/.lmstudio/models/&lt;/code&gt;.&lt;/p&gt;&#xA;&lt;p&gt;&lt;a href=&#34;https://melabit.com/img/2025-03-31-lmstudio-un-llm-sul-tuo-computer/lmstudio-onboarding-2.png&#34;&gt;&lt;img src=&#34;https://melabit.com/img/2025-03-31-lmstudio-un-llm-sul-tuo-computer/lmstudio-onboarding-2.png&#34; alt=&#34;&#34;&gt;&lt;/a&gt;&lt;/p&gt;&#xA;&lt;p&gt;Il processo di download non è per niente veloce, per cui bisogna armarsi di un bel po&amp;rsquo; di pazienza.&lt;/p&gt;&#xA;&lt;p&gt;&lt;a href=&#34;https://melabit.com/img/2025-03-31-lmstudio-un-llm-sul-tuo-computer/lmstudio-onboarding-3.png&#34;&gt;&lt;img src=&#34;https://melabit.com/img/2025-03-31-lmstudio-un-llm-sul-tuo-computer/lmstudio-onboarding-3.png&#34; alt=&#34;&#34;&gt;&lt;/a&gt;&lt;/p&gt;&#xA;&lt;p&gt;Come consigliato dallo stesso programma, mentre il download prosegue vado avanti ad esplorare l&amp;rsquo;interfaccia, che è quella classica a cui ormai siamo abituati, con una grossa area centrale dedicata al dialogo con il chatbot di turno, mentre la colonna laterale ospita alcune icone che, dall&amp;rsquo;alto in basso, consentono di attivare la modalità &lt;code&gt;Chat&lt;/code&gt; o &lt;code&gt;Developer&lt;/code&gt; e di verificare quali modelli sono installati sulla nostra macchina e quali altri modelli sono disponibili.&lt;/p&gt;&#xA;&lt;p&gt;&lt;a href=&#34;https://melabit.com/img/2025-03-31-lmstudio-un-llm-sul-tuo-computer/lmstudio-main-screen.png&#34;&gt;&lt;img src=&#34;https://melabit.com/img/2025-03-31-lmstudio-un-llm-sul-tuo-computer/lmstudio-main-screen.png&#34; alt=&#34;&#34;&gt;&lt;/a&gt;&lt;/p&gt;&#xA;&lt;p&gt;L&amp;rsquo;ultima icona in basso a sinistra mostra lo stato del download del modello. Cliccandoci sopra si possono avere informazioni sulla quantità di dati già scaricati, il tempo previsto per il completamento e, se necessario, mettere in pausa o interrompere il processo di scaricamento. Se il processo di scaricamento va in &lt;em&gt;timeout&lt;/em&gt;, è anche possibile riprenderlo dal punto in cui si era interrotto.&lt;/p&gt;&#xA;&lt;p&gt;&lt;a href=&#34;https://melabit.com/img/2025-03-31-lmstudio-un-llm-sul-tuo-computer/lmstudio-download-model.png&#34;&gt;&lt;img src=&#34;https://melabit.com/img/2025-03-31-lmstudio-un-llm-sul-tuo-computer/lmstudio-download-model.png&#34; alt=&#34;&#34;&gt;&lt;/a&gt;&lt;/p&gt;&#xA;&lt;p&gt;Con il modello scelto a me è successo più volte, per cui dategli una occhiata ogni tanto. Una volta concluso lo scaricamento del modello, è necessario caricarlo in LM Studio per poterlo usare. Per farlo, si possono usare due bottoni &lt;code&gt;Load Model&lt;/code&gt; distinti, per cui è difficile dimenticarselo.&lt;/p&gt;&#xA;&lt;p&gt;&lt;a href=&#34;https://melabit.com/img/2025-03-31-lmstudio-un-llm-sul-tuo-computer/lmstudio-load-model.png&#34;&gt;&lt;img src=&#34;https://melabit.com/img/2025-03-31-lmstudio-un-llm-sul-tuo-computer/lmstudio-load-model.png&#34; alt=&#34;&#34;&gt;&lt;/a&gt;&lt;/p&gt;&#xA;&lt;p&gt;Una volta caricato il primo modello, l&amp;rsquo;interfaccia di LM Studio cambia leggermente, mostrando al centro della finestra alcuni prompt di esempio. Nella barra superiore, il nome del modello caricato appare al centro, affiancato da due icone: quella a sinistra consente di configurare i parametri del modello, mentre quella a destra permette di sostituire il modello corrente con un altro. Un&amp;rsquo;icona a forma di &lt;a href=&#34;https://it.wikipedia.org/wiki/Beuta&#34;&gt;beuta&lt;/a&gt; sulla destra offre l&amp;rsquo;accesso alle impostazioni avanzate di configurazione.&lt;/p&gt;&#xA;&lt;p&gt;&lt;a href=&#34;https://melabit.com/img/2025-03-31-lmstudio-un-llm-sul-tuo-computer/lmstudio-main-screeen-with-model.png&#34;&gt;&lt;img src=&#34;https://melabit.com/img/2025-03-31-lmstudio-un-llm-sul-tuo-computer/lmstudio-main-screeen-with-model.png&#34; alt=&#34;&#34;&gt;&lt;/a&gt;&lt;/p&gt;&#xA;&lt;p&gt;La barra inferiore del programma mostra alcune informazioni utili, a sinistra la versione di LM Studio e a destra la quantità di RAM e di CPU in uso.&lt;/p&gt;&#xA;&lt;p&gt;&lt;a href=&#34;https://melabit.com/img/2025-03-31-lmstudio-un-llm-sul-tuo-computer/lmstudio-status-bar.png&#34;&gt;&lt;img src=&#34;https://melabit.com/img/2025-03-31-lmstudio-un-llm-sul-tuo-computer/lmstudio-status-bar.png&#34; alt=&#34;&#34;&gt;&lt;/a&gt;&lt;/p&gt;&#xA;&lt;p&gt;L&amp;rsquo;ultima icona a destra della barra inferiore permette di accedere alle impostazioni del programma. Ed è anche l&amp;rsquo;unico modo per farlo perché, stranamente, non esiste una voce di menu dedicata a queste impostazioni.&lt;/p&gt;&#xA;&lt;p&gt;&lt;a href=&#34;https://melabit.com/img/2025-03-31-lmstudio-un-llm-sul-tuo-computer/lmstudio-settings.png&#34;&gt;&lt;img src=&#34;https://melabit.com/img/2025-03-31-lmstudio-un-llm-sul-tuo-computer/lmstudio-settings.png&#34; alt=&#34;&#34;&gt;&lt;/a&gt;&lt;/p&gt;&#xA;&lt;p&gt;La stessa barra permette anche di selezionare la modalità di utilizzo del programma, scegliendo fra &lt;code&gt;User&lt;/code&gt; (che nasconde le icone laterali), &lt;code&gt;Power User&lt;/code&gt; (la modalità predefinita) e &lt;code&gt;Developer&lt;/code&gt; (che apparentemente non modifica l&amp;rsquo;interfaccia).&lt;/p&gt;&#xA;&lt;p&gt;&lt;a href=&#34;https://melabit.com/img/2025-03-31-lmstudio-un-llm-sul-tuo-computer/lmstudio-mode.png&#34;&gt;&lt;img src=&#34;https://melabit.com/img/2025-03-31-lmstudio-un-llm-sul-tuo-computer/lmstudio-mode.png&#34; alt=&#34;&#34;&gt;&lt;/a&gt;&lt;/p&gt;&#xA;&lt;h4 id=&#34;mettiamo-lm-studio-alla-prova&#34;&gt;Mettiamo LM Studio alla prova&lt;/h4&gt;&#xA;&lt;p&gt;A questo punto non resta che mettere LM Studio (e DeekSeek) alla prova, magari usando uno dei prompt di esempio. Non ho bisogno di chiedere a una intelligenza artificiale qual&amp;rsquo;è la capitale della Francia, il cubo di Rubik è una roba troppo anni &amp;lsquo;80, vediamo come se la cava con la matematica.&lt;/p&gt;&#xA;&lt;p&gt;Deepseek ci pensa su un minuto, ma poi tira fuori una bella prova del teorema di Pitagora basata sulle proporzioni. Come gli ho chiesto esplicitamente, formatta pure le equazioni in LaTeX, che è sempre una bella cosa.&lt;/p&gt;&#xA;&lt;p&gt;&lt;a href=&#34;https://melabit.com/img/2025-03-31-lmstudio-un-llm-sul-tuo-computer/lmstudio-math-prompt.png&#34;&gt;&lt;img src=&#34;https://melabit.com/img/2025-03-31-lmstudio-un-llm-sul-tuo-computer/lmstudio-math-prompt.png&#34; alt=&#34;&#34;&gt;&lt;/a&gt;&lt;/p&gt;&#xA;&lt;p&gt;E se clicco sul triangolino nel box &lt;code&gt;Thoughts&lt;/code&gt;, mostra perfino il ragionamento che ha seguito per arrivare a quella dimostrazione. Davvero niente male!&lt;/p&gt;&#xA;&lt;p&gt;&lt;a href=&#34;https://melabit.com/img/2025-03-31-lmstudio-un-llm-sul-tuo-computer/lmstudio-math-thoughts.png&#34;&gt;&lt;img src=&#34;https://melabit.com/img/2025-03-31-lmstudio-un-llm-sul-tuo-computer/lmstudio-math-thoughts.png&#34; alt=&#34;&#34;&gt;&lt;/a&gt;&lt;/p&gt;&#xA;&lt;p&gt;Finora ho usato un Mac Mini M1 con 16 GB di RAM. Ma io ho a disposizione anche un Mac Studio M2 Ultra con 192 GB di RAM, quanto ci metterà?&lt;/p&gt;&#xA;&lt;p&gt;Fare un confronto non è semplice perché, anche se si usa esattamente lo stesso prompt, le risposte del Mac Mini e del Mac Studio sono sempre diverse, a dimostrazione della natura puramente statistica dei &lt;em&gt;ragionamenti&lt;/em&gt; fatti dagli LLM. Lo si può vedere nelle due immagini qui sotto, dove il Mini è riconoscibile per il tema chiaro che ho usato finora, mentre il Mac Studio è configurato per usare un tema scuro.&lt;/p&gt;&#xA;&lt;p&gt;&lt;a href=&#34;https://melabit.com/img/2025-03-31-lmstudio-un-llm-sul-tuo-computer/lmstudio-pythagorean-theorem-macmini.png&#34;&gt;&lt;img src=&#34;https://melabit.com/img/2025-03-31-lmstudio-un-llm-sul-tuo-computer/lmstudio-pythagorean-theorem-macmini.png&#34; alt=&#34;&#34;&gt;&lt;/a&gt;&#xA;&lt;a href=&#34;https://melabit.com/img/2025-03-31-lmstudio-un-llm-sul-tuo-computer/lmstudio-pythagorean-theorem-macstudio.png&#34;&gt;&lt;img src=&#34;https://melabit.com/img/2025-03-31-lmstudio-un-llm-sul-tuo-computer/lmstudio-pythagorean-theorem-macstudio.png&#34; alt=&#34;&#34;&gt;&lt;/a&gt;&lt;/p&gt;&#xA;&lt;p&gt;Ripetendo la stessa domanda per cinque volte sul Mac Mini, il tempo di risposta varia tra 80 e 120 secondi, con una velocità costante di 10-11 token al secondo.&lt;sup id=&#34;fnref:2&#34;&gt;&lt;a href=&#34;#fn:2&#34; class=&#34;footnote-ref&#34; role=&#34;doc-noteref&#34;&gt;2&lt;/a&gt;&lt;/sup&gt; Sul Mac Studio, invece, le risposte vengono generate in 15-45 secondi, con una velocità di 60-70 token al secondo. Ad occhio e croce, quindi, la velocità di generazione del testo sul Mac Studio è circa 6-7 volte maggiore di quella del Mac Mini.&lt;/p&gt;&#xA;&lt;h4 id=&#34;abbassiamo-la-temperatura&#34;&gt;Abbassiamo la temperatura&lt;/h4&gt;&#xA;&lt;p&gt;Ma io sono testardo e, per confrontarli in modo più accurato, vorrei che i due Mac mi diano sempre la stessa risposta. Per riuscirci, devo cliccare sull&amp;rsquo;icona a forma di &lt;a href=&#34;https://it.wikipedia.org/wiki/Beuta&#34;&gt;beuta&lt;/a&gt; in alto a destra e impostare &lt;em&gt;Temperature&lt;/em&gt; a zero (il valore di default è 0.8).&lt;/p&gt;&#xA;&lt;p&gt;&lt;a href=&#34;https://melabit.com/img/2025-03-31-lmstudio-un-llm-sul-tuo-computer/lmstudio-model-advanced-config.png&#34;&gt;&lt;img src=&#34;https://melabit.com/img/2025-03-31-lmstudio-un-llm-sul-tuo-computer/lmstudio-model-advanced-config.png&#34; alt=&#34;&#34;&gt;&lt;/a&gt;&lt;/p&gt;&#xA;&lt;p&gt;In queste condizioni,o il Mac Mini impiega da da 75 a 140 secondi per elaborare le sue risposte, mentre il Mac Studio ce la fa in 11-22 secondi. La cosa strana è che, nonostante le risposte siano sempre le stesse, il numero di token generati cambia ogni volta, per cui anche in questo caso la velocità del Mac Mini è sempre di 10-11 token al secondo, mentre il Mac Studio è meno costante e genera 60-80 token al secondo.&lt;/p&gt;&#xA;&lt;p&gt;Per uno studio più scientifico bisognerebbe lavorare in condizioni molto più controllate, ma per ora ci possiamo accontentare di dire che, anche con questa configurazione, il Mac Studio è almeno 6-7 volte più veloce del Mac Mini.&lt;/p&gt;&#xA;&lt;h4 id=&#34;e-chatgpt&#34;&gt;E ChatGPT?&lt;/h4&gt;&#xA;&lt;p&gt;Per confronto, quanto ci mette ChatGPT? Se gli faccio la solita domanda sul teorema di Pitagora attivando l&amp;rsquo;opzione &lt;code&gt;Reason&lt;/code&gt;, ChatGPT mi propone due risposte diverse, molto dettagliate e ben scritte. E per farlo ci mette appena 28 secondi, che è un tempo paragonabile a quello del Mac Studio.&lt;/p&gt;&#xA;&lt;p&gt;&lt;a href=&#34;https://melabit.com/img/2025-03-31-lmstudio-un-llm-sul-tuo-computer/chatgpt-pythagorean-theorem.png&#34;&gt;&lt;img src=&#34;https://melabit.com/img/2025-03-31-lmstudio-un-llm-sul-tuo-computer/chatgpt-pythagorean-theorem.png&#34; alt=&#34;&#34;&gt;&lt;/a&gt;&lt;/p&gt;&#xA;&lt;p&gt;Devo ammettere che sono impressionato dalla velocità di ChatGPT. È vero che ChatGPT gira su dei server che non hanno nulla da spartire con i miei due Mac, però è altrettanto vero che questi devono rispondere a migliaia di richieste in parallelo alla mia, mentre i Mac sono solo al mio servizio.&lt;/p&gt;&#xA;&lt;h4 id=&#34;conclusioni-per-ora&#34;&gt;Conclusioni (per ora)&lt;/h4&gt;&#xA;&lt;p&gt;In ogni caso l&amp;rsquo;obiettivo di questo articolo non è mettere a confronto ChatGPT con altri LLM, ma verificare se è possibile utilizzare un LLM direttamente sul nostro computer, evitando di far girare informazioni riservate per la rete.&lt;/p&gt;&#xA;&lt;p&gt;È anche vero che sia il Mac Mini che il Mac Studio non si accorgono nemmeno che LM Studio sta effettuando le sue elaborazioni, quindi ci dovrebbe essere spazio per delle ottimizzazioni. Ma questo (e altro) lo vedremo nel prossimo articolo.&lt;/p&gt;&#xA;&lt;div class=&#34;footnotes&#34; role=&#34;doc-endnotes&#34;&gt;&#xA;&lt;hr&gt;&#xA;&lt;ol&gt;&#xA;&lt;li id=&#34;fn:1&#34;&gt;&#xA;&lt;p&gt;Un &amp;ldquo;modello&amp;rdquo; è l&amp;rsquo;insieme dei pesi, delle regole matematiche e delle strutture neurali che costituiscono un determinato LLM.&amp;#160;&lt;a href=&#34;#fnref:1&#34; class=&#34;footnote-backref&#34; role=&#34;doc-backlink&#34;&gt;&amp;#x21a9;&amp;#xfe0e;&lt;/a&gt;&lt;/p&gt;&#xA;&lt;/li&gt;&#xA;&lt;li id=&#34;fn:2&#34;&gt;&#xA;&lt;p&gt;Un &amp;ldquo;token&amp;rdquo; è l&amp;rsquo;unita fondamentale di testo elaborata dal modello e può corrispondere a una parola intera, a una parte di parola, a uno spazio o a un segno di punteggiatura. La scelta di rappresentare una parola con un solo token o con più token dipende dalla sua frequenza d&amp;rsquo;uso. Se una parola è molto comune, verrà utilizzato un singolo token per rappresentarla. Se invece una parola è usata di rado, non ha senso aggiungere l&amp;rsquo;intera parola al vocabolario del modello, ma questa verrà scomposta in sottoparole più comuni.&amp;#160;&lt;a href=&#34;#fnref:2&#34; class=&#34;footnote-backref&#34; role=&#34;doc-backlink&#34;&gt;&amp;#x21a9;&amp;#xfe0e;&lt;/a&gt;&lt;/p&gt;&#xA;&lt;/li&gt;&#xA;&lt;/ol&gt;&#xA;&lt;/div&gt;&#xA;</description>
    </item>
    <item>
      <title>Da melabit a melabit: addio WordPress, ciao Jekyll</title>
      <link>https://melabit.com/it/2025/01/02/2025-01-02-da-melabit-a-melabit-addio-wordpress-ciao-jekyll/</link>
      <pubDate>Thu, 02 Jan 2025 06:00:00 +0000</pubDate>
      <guid>https://melabit.com/it/2025/01/02/2025-01-02-da-melabit-a-melabit-addio-wordpress-ciao-jekyll/</guid>
      <description>&lt;p&gt;&lt;img src=&#34;https://melabit.com/img/2025-01-02-da-melabit-a-melabit-addio-wordpress-ciao-jekyll/phoenix.jpeg&#34; alt=&#34;&#34;&gt;&#xA;&amp;ndash; &lt;em&gt;Immagine generata dall&amp;rsquo;IA di &lt;a href=&#34;https://designer.microsoft.com/image-creator&#34;&gt;Microsoft Designer&lt;/a&gt;.&lt;/em&gt;&lt;/p&gt;&#xA;&lt;p&gt;Undici anni fa, quando ho iniziato a scrivere in questo spazio personale, non avrei mai pensato di rimanere per tutto questo tempo su &lt;a href=&#34;https://wordpress.com/&#34;&gt;WordPress.com&lt;/a&gt;, una piattaforma di blogging comoda ed affidabile, che però è sempre stata &lt;a href=&#34;https://melabit.com/it/2014/08/01/i-limiti-di-wordpress-com/&#34;&gt;poco adatta al mio modo di lavorare&lt;/a&gt;. Con il tempo ho imparato a convivere con questi limiti, ma l&amp;rsquo;idea di cambiare non mi ha mai abbandonato.&lt;/p&gt;&#xA;&lt;p&gt;Sin dall&amp;rsquo;inizio avevo ben chiaro &lt;a href=&#34;https://melabit.com/it/2014/12/31/and-the-winner-is/&#34;&gt;quale piattaforma alternativa&lt;/a&gt; avrei voluto utilizzare. Qualche anno dopo ho riesaminato le alternative disponibili e i passi da fare in una &lt;a href=&#34;https://melabit.wordpress.com/2018/04/16/da-melabit-a-melabit-introduzione/&#34;&gt;lunga serie di articoli&lt;/a&gt; che alla fine si è conclusa con&amp;hellip; un nulla di fatto, forse perché non ero convinto al 100% della decisione presa.&lt;/p&gt;&#xA;&lt;p&gt;Del resto, non è facile abbandonare la &lt;em&gt;comfort zone&lt;/em&gt; di una piattaforma con la quale hai avuto per tanti anni esattamente zero problemi, per imbarcarsi in una nuova avventura in cui bisogna gestire tutto in prima persona.&lt;/p&gt;&#xA;&lt;hr style = &#34;border: none; &#xA;            border-top: 3px double #333; &#xA;            color: #333; &#xA;            overflow: visible; &#xA;            height: 5px; &#xA;            width: 50%; &#xA;            margin-left: auto; &#xA;            margin-right: auto;&#34;&#xA;&gt;&#xA;&#xA;&lt;p&gt;Qualche mese fa, però, è arrivata la decisione di &lt;a href=&#34;https://automattic.com/&#34;&gt;Automattic&lt;/a&gt;, l&amp;rsquo;azienda che gestisce il software open source &lt;a href=&#34;https://wordpress.org/&#34;&gt;WordPress&lt;/a&gt; e tutti i prodotti derivati, di &lt;a href=&#34;https://www.engadget.com/tumblr-and-wordpress-posts-will-reportedly-be-used-for-openai-and-midjourney-training-204425798.html&#34;&gt;condividere di default&lt;/a&gt; tutti i contenuti presenti su WordPress.com con &amp;ldquo;terze parti&amp;rdquo;, cioè di fatto con i generatori di testi basati sull&amp;rsquo;Intelligenza Artificiale (ChatGPT e compagnia bella, per capirci), sempre affamati di nuovi testi con cui affinare il loro addestramento.&lt;sup id=&#34;fnref:1&#34;&gt;&lt;a href=&#34;#fn:1&#34; class=&#34;footnote-ref&#34; role=&#34;doc-noteref&#34;&gt;1&lt;/a&gt;&lt;/sup&gt; A quel punto non ci potevano più essere tentenamenti.&lt;/p&gt;&#xA;&lt;p&gt;Come se non bastasse, poco dopo Matt Mullenweg, il fondatore di WordPress, ha &lt;a href=&#34;https://joshcollinsworth.com/blog/fire-matt&#34;&gt;dato di matto&lt;/a&gt; (&lt;em&gt;nomen omen&lt;/em&gt;), evidenziando come, nonostante WordPress sia il il sistema di gestione dei contenuti (CMS) open-source più diffuso al mondo, il controllo esercitato in maniera centralizzata e sempre più dittatoriale rischia di mettere in dubbio il futuro aperto e trasparente della piattaforma.&lt;/p&gt;&#xA;&lt;hr style = &#34;border: none; &#xA;            border-top: 3px double #333; &#xA;            color: #333; &#xA;            overflow: visible; &#xA;            height: 5px; &#xA;            width: 50%; &#xA;            margin-left: auto; &#xA;            margin-right: auto;&#34;&#xA;&gt;&#xA;&#xA;&lt;p&gt;E allora il dado è tratto! C&amp;rsquo;è voluto tanto tempo e anche tanto lavoro, ma da oggi questo piccolo blog ha una casa tutta sua, &lt;a href=&#34;https://melabit.com/it/it&#34;&gt;melabit.com/posts/it&lt;/a&gt;, dove poter sperimentare con una libertà molto maggiore di quella concessa finora. Vediamo come va.&lt;/p&gt;&#xA;&lt;p&gt;Il &lt;a href=&#34;https://melabit.com/it/it&#34;&gt;nuovo sito&lt;/a&gt; è ancora un oggetto in divenire, la struttura di base è quella ma nei prossimi mesi ci saranno di sicuro modifiche e aggiustamenti. La prima cosa da fare è espandere la sezione in inglese, che al momento contiene solo una manciata di post, con link mancanti o ancora riferiti agli articoli originali in italiano. Vorrei anche aggiungere un sistema di notifica dei nuovi post.&lt;/p&gt;&#xA;&lt;p&gt;Nel frattempo segnalatemi senza scrupoli nei commenti tutto ciò che non funziona o che funziona male.&lt;/p&gt;&#xA;&lt;p&gt;Per i dettagli e gli aspetti tecnici della transizione vi rimando invece ai prossimi post.&lt;/p&gt;&#xA;&lt;p&gt;Resta inteso che tutti i vecchi contenuti e i commenti rimarrano disponibili su &lt;a href=&#34;https://melabit.wordpress.com/&#34;&gt;melabit.wordpress.com&lt;/a&gt;. Almeno finché Mullenweg non mi caccia&amp;hellip; 🤣🤣🤣🤣🤣&lt;/p&gt;&#xA;&lt;div class=&#34;footnotes&#34; role=&#34;doc-endnotes&#34;&gt;&#xA;&lt;hr&gt;&#xA;&lt;ol&gt;&#xA;&lt;li id=&#34;fn:1&#34;&gt;&#xA;&lt;p&gt;Perché è vero che è possibile rifiutare la condivisione dei propri contenuti, e l&amp;rsquo;ho fatto anch&amp;rsquo;io ma, è altrettanto vero che bisogna scegliere esplicitamente di &lt;strong&gt;non condividere&lt;/strong&gt; i propri dati e non il contrario, come sarebbe più normale. E comunque non è affatto detto che questi contenuti non vengano razzolati lo stesso.&amp;#160;&lt;a href=&#34;#fnref:1&#34; class=&#34;footnote-backref&#34; role=&#34;doc-backlink&#34;&gt;&amp;#x21a9;&amp;#xfe0e;&lt;/a&gt;&lt;/p&gt;&#xA;&lt;/li&gt;&#xA;&lt;/ol&gt;&#xA;&lt;/div&gt;&#xA;</description>
    </item>
    <item>
      <title>Meglio le galline</title>
      <link>https://melabit.com/it/2024/03/04/meglio-le-galline/</link>
      <pubDate>Mon, 04 Mar 2024 06:00:00 +0000</pubDate>
      <guid>https://melabit.com/it/2024/03/04/meglio-le-galline/</guid>
      <description>&lt;p&gt;&lt;img src=&#34;https://melabit.com/img/2024-03-04-meglio-le-galline/henrique-s-ruzzon-u1vOLCULaik-unsplash.jpg&#34; alt=&#34;&#34;&gt;&#xA;&amp;ndash; &lt;em&gt;Fonte: &lt;a href=&#34;https://unsplash.com/@ruzphotos&#34;&gt;Henrique S. Ruzzon&lt;/a&gt; su &lt;a href=&#34;https://unsplash.com&#34;&gt;Unsplash&lt;/a&gt;&lt;/em&gt;.&lt;/p&gt;&#xA;&lt;p&gt;Mentre scrivevo il &lt;a href=&#34;https://melabit.com/it/2024/03/01/quando-icloud-non-va/&#34;&gt;post precedente&lt;/a&gt; mi sono imbattuto in questo &lt;em&gt;articolo&lt;/em&gt; del 14 marzo 2022, &lt;a href=&#34;https://lemp.io/what-is-bird-mac-os-x-process/&#34;&gt;The Bird Process In Mac OS X&lt;/a&gt;, che si trovava ai primissimi posti dei risultati di Google.&lt;/p&gt;&#xA;&lt;p&gt;Non leggetelo, è soltanto un cumulo di sciocchezze e di figure senza senso. Con il senno di poi avrei dovuto capirlo già dal titolo &amp;ndash; chi usa ancora &amp;ldquo;Mac OS X&amp;rdquo; nel 2022? &amp;ndash; e dalla mezza immagine di Flappy Bird, ma sono stato ingenuo e ci ho messo un po&amp;rsquo; ad accorgermi che c&amp;rsquo;era qualcosa che non andava.&lt;/p&gt;&#xA;&lt;p&gt;La data del post ci dice che quest&amp;rsquo;affare non è un prodotto di ChatGPT, che è stato rivelato al mondo solo nell&amp;rsquo;autunno di quell&amp;rsquo;anno. Ma proprio nei primi mesi del 2022 il grande pubblico stava iniziando a conoscere i sistemi automatici di generazione del testo, come &lt;a href=&#34;https://venturebeat.com/ai/google-open-sources-bert-a-state-of-the-art-training-technique-for-natural-language-processing/&#34;&gt;BERT&lt;/a&gt; o &lt;a href=&#34;https://www.theguardian.com/commentisfree/2020/sep/08/robot-wrote-this-article-gpt-3&#34;&gt;GPT-3&lt;/a&gt;, ed è plausibile che l&amp;rsquo;articolo in questione sia già il parto della fervida fantasia di una &lt;em&gt;intelligenza artificiale&lt;/em&gt; piuttosto maldestra.&lt;/p&gt;&#xA;&lt;p&gt;Che dire? Se il futuro che ci aspetta è trovare in rete roba come questa, meglio ritirarsi in campagna ad allevare galline. Saranno anche &lt;a href=&#34;https://themillennial.it/cultura/musica/la-gallina-cochi-renato-testo-significato/&#34;&gt;poco intelligenti&lt;/a&gt;, ma di sicuro sono molto più stimolanti e divertenti di certi prodotti dell&amp;rsquo;IA.&lt;/p&gt;&#xA;&lt;p&gt;In ogni caso, qualcosa mi dice che &lt;a href=&#34;https://google.com&#34;&gt;Google&lt;/a&gt; qualche problemino con i suoi algoritmi di ricerca ce l&amp;rsquo;ha.&lt;/p&gt;&#xA;&lt;div style=&#34;position: relative; padding-bottom: 56.25%; height: 0; overflow: hidden;&#34;&gt;&#xA;      &lt;iframe allow=&#34;accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share&#34; allowfullscreen=&#34;allowfullscreen&#34; loading=&#34;eager&#34; referrerpolicy=&#34;strict-origin-when-cross-origin&#34; src=&#34;https://www.youtube.com/embed/sR9yINddpwo?autoplay=0&amp;amp;controls=1&amp;amp;end=0&amp;amp;loop=0&amp;amp;mute=0&amp;amp;start=0&#34; style=&#34;position: absolute; top: 0; left: 0; width: 100%; height: 100%; border:0;&#34; title=&#34;YouTube video&#34;&gt;&lt;/iframe&gt;&#xA;    &lt;/div&gt;&#xA;&#xA;&lt;p&gt;&lt;strong&gt;07-04-2024&lt;/strong&gt;: Nemmeno a farlo apposta, pare che Google si sia decisa a modificare i suoi algoritmi di ricerca per &lt;a href=&#34;https://arstechnica.com/gadgets/2024/03/google-wants-to-close-pandoras-box-fight-ai-powered-search-spam/?utm_brand=arstechnica&amp;amp;utm_social-type=owned&amp;amp;utm_source=mastodon&amp;amp;utm_medium=social&#34;&gt;limitare lo spam alimentato dall&amp;rsquo;intelligenza artificiale&lt;/a&gt; che lei stessa ha contribuito a creare.&lt;/p&gt;&#xA;</description>
    </item>
    <item>
      <title>Quando i dati sono troppi</title>
      <link>https://melabit.com/it/2023/05/31/quando-i-dati-sono-troppi/</link>
      <pubDate>Wed, 31 May 2023 06:00:00 +0000</pubDate>
      <guid>https://melabit.com/it/2023/05/31/quando-i-dati-sono-troppi/</guid>
      <description>&lt;p&gt;&lt;img src=&#34;https://melabit.com/img/2023-05-31-quando-i-dati-sono-troppi/afrah-Qwiwjf3oZ1U-unsplash.jpg&#34; alt=&#34;&#34;&gt;&#xA;&amp;ndash; &lt;em&gt;Fonte: &lt;a href=&#34;https://unsplash.com/@ahmedafrah&#34;&gt;Afrah&lt;/a&gt; su &lt;a href=&#34;https://unsplash.com&#34;&gt;Unsplash&lt;/a&gt;&lt;/em&gt;.&lt;/p&gt;&#xA;&lt;p&gt;I sistemi di intelligenza artificiale moderni vengono addestrati con enormi quantità di dati, perché l’idea di fondo è che più dati ci sono, meglio è. Esempio tipico è ChatGPT, a cui è stato fatto &lt;em&gt;leggere&lt;/em&gt; e &lt;em&gt;digerire&lt;/em&gt; praticamente tutto lo scibile umano, o almeno tutto lo scibile umano presente su internet. Ma, nonostante questa montagna di conoscenza, ChatGPT non &lt;em&gt;capisce&lt;/em&gt; quello che legge, e nelle sue risposte mette solo in fila una parola dopo l&amp;rsquo;altra, calcolando la probabilità che una nuova parola segua quella che ha appena generato.&lt;sup id=&#34;fnref:1&#34;&gt;&lt;a href=&#34;#fn:1&#34; class=&#34;footnote-ref&#34; role=&#34;doc-noteref&#34;&gt;1&lt;/a&gt;&lt;/sup&gt;&lt;/p&gt;&#xA;&lt;p&gt;Facciamo un esempio terra terra: se addestrassimo un sistema di generazione di testi utilizzando 100 documenti, nella metà dei quali c’è scritto che la rivoluzione francese è avvenuta in Francia nel 1789 e nell’altra metà che è avvenuta in Nord America nel 1776, il nostro sistema (presunto) intelligente non saprà distinguere i documenti sbagliati da quelli corretti,&lt;sup id=&#34;fnref:2&#34;&gt;&lt;a href=&#34;#fn:2&#34; class=&#34;footnote-ref&#34; role=&#34;doc-noteref&#34;&gt;2&lt;/a&gt;&lt;/sup&gt; e quando sarà interrogato ci risponderà la metà delle volte, senza battere ciglio, che la rivoluzione francese è avvenuta in America, e una volta su quattro che si è svolta in Francia ma nel 1776.&lt;/p&gt;&#xA;&lt;p&gt;ChatGPT è l&amp;rsquo;estrapolazione estrema di questo concetto: legge, analizza, calcola, ma non capisce un tubo.&lt;/p&gt;&#xA;&lt;hr style = &#34;border: none; &#xA;            border-top: 3px double #333; &#xA;            color: #333; &#xA;            overflow: visible; &#xA;            height: 5px; &#xA;            width: 50%; &#xA;            margin-left: auto; &#xA;            margin-right: auto;&#34;&#xA;&gt;&#xA;&#xA;&lt;p&gt;Ma i problemi non nascono solo quando i sistemi di intelligenza artificiale vengono addestrati a partire da informazioni sbagliate o del tutto false.&lt;sup id=&#34;fnref:3&#34;&gt;&lt;a href=&#34;#fn:3&#34; class=&#34;footnote-ref&#34; role=&#34;doc-noteref&#34;&gt;3&lt;/a&gt;&lt;/sup&gt;&lt;/p&gt;&#xA;&lt;p&gt;I problemi nascono anche quando addestriamo un sistema di intelligenza artificiale con dei dati di scarsa qualità. Ce lo dicono Marco Roccetti e i suoi colleghi in un &lt;a href=&#34;https://journalofbigdata.springeropen.com/articles/10.1186/s40537-019-0235-y&#34;&gt;bell&amp;rsquo;articolo&lt;/a&gt;, &lt;em&gt;&amp;ldquo;Più grande è sempre meglio? Un viaggio controverso al centro della progettazione dei [sistemi] di apprendimento automatico, con usi e abusi dei big data nella predizione dei guasti ai contatori dell&amp;rsquo;acqua&amp;rdquo;&lt;/em&gt;, che parte da un problema molto specifico come i guasti ai contatori, per affrontare il problema principale dei sistemi di intelligenza artificiale, la qualità dei dati in ingresso.&lt;/p&gt;&#xA;&lt;p&gt;L&amp;rsquo;articolo ha un sapore molto di casa nostra, si nota chiaramente che è scritto da italiani che traducono in inglese il nostro modo particolare di esprimerci, ma è davvero molto interessante anche perché racconta il percorso compiuto, gli errori fatti, gli ostacoli incontrati e le tecniche usate per superarli, un approccio normale in un racconto o in un saggio ma inusuale, anzi scoraggiato, in un articolo scientifico.&lt;/p&gt;&#xA;&lt;p&gt;E in questo percorso gli autori si sono accorti che non è vero che si può dare di tutto in pasto ad un sistema di apprendimento automatico e che sarà poi il sistema stesso a separare il grano dal loglio e a tirare delle conclusioni sensate. Anzi, è vero proprio il contrario, se diamo in pasto al sistema tantissimi dati raffazzonati, contenenti informazioni mancanti o contraddittorie, anche le predizioni che ne verranno fuori saranno di scarsa qualità. Molto meglio selezionare i dati corretti, ed usare solo quelli per addestrare il sistema e trarre le proprie conclusioni.&lt;/p&gt;&#xA;&lt;p&gt;&lt;em&gt;Junk in, junk out&lt;/em&gt; (spazzatura in ingresso, spazzatura in uscita), me lo ripeteva sempre il mio indimenticato &lt;a href=&#34;https://ieeexplore.ieee.org/author/37284592800&#34;&gt;mentore tedesco&lt;/a&gt;, è un vecchio adagio ma è sempre valido.&lt;/p&gt;&#xA;&lt;hr style = &#34;border: none; &#xA;            border-top: 3px double #333; &#xA;            color: #333; &#xA;            overflow: visible; &#xA;            height: 5px; &#xA;            width: 50%; &#xA;            margin-left: auto; &#xA;            margin-right: auto;&#34;&#xA;&gt;&#xA;&#xA;&lt;p&gt;Ma il concetto che &amp;ldquo;più grande non è detto che sia sempre meglio&amp;rdquo; non è una novità dell&amp;rsquo;era dei &lt;em&gt;big data&lt;/em&gt;, anzi è ben noto a chi si occupa di queste cose perlomeno &lt;a href=&#34;https://about.proquest.com/en/blog/2016/That-Time-the-Literary-Digest-Poll-Got-1936-Election-Wrong&#34;&gt;dagli anni &amp;lsquo;30 del secolo scorso&lt;/a&gt;, quando la rivista Literary Digest inviò a 10 milioni di elettori una finta scheda elettorale, da rispedire dopo averla votata. Risposero in 2.4 milioni, un numero enorme per quei tempi, e la stragrande maggioranza dei voti andò al candidato repubblicano, Alfred Landon. Nella realtà vinse il democratico Franklin Delano Roosevelt con il 61% dei voti, e l&amp;rsquo;unico a predire correttamente il risultato finale fu &lt;a href=&#34;https://time.com/4568359/george-gallup-polling-history&#34;&gt;George Gallup&lt;/a&gt;, che aveva condotto un sondaggio con poche migliaia di partecipanti.&lt;/p&gt;&#xA;&lt;p&gt;Questo episodio non solo fece la fortuna di Gallup, il cui istituto di sondaggi divenne per decenni la principale agenzia di indagini demoscopiche degli Stati Uniti, ma mise plasticamente in evidenza l&amp;rsquo;importanza del &lt;em&gt;&lt;a href=&#34;https://amsi.org.au/ESA_Senior_Years/SeniorTopic4/4b/4b_2content_4.html&#34;&gt;bias di campionamento&lt;/a&gt;&lt;/em&gt; nelle analisi statistiche. Venne riconosciuto in pratica, e a partire da un esempio di dimensioni ciclopiche (almeno per quei tempi), che quello che conta non è la quantità dei dati raccolti ma la sua qualità.&lt;/p&gt;&#xA;&lt;p&gt;La Literary Digest aveva inviato le sue finte schede ai suoi abbonati e agli elettori presenti negli elenchi telefonici e in quelli della motorizzazione, cosa che durante la ripresa dalla Grande Depressione significava selezionare solo chi apparteneva alle classi sociali più abbienti e più orientate a votare repubblicano. Gallup, invece, aveva scelto il suo piccolo campione in modo casuale, stando attento a pescare in modo omogeneo fra i diversi gruppi demografici della popolazione americana. Ed ebbe ragione.&lt;/p&gt;&#xA;&lt;p&gt;Il bias di campionamento è proprio questo: avere tantissimi dati non serve a niente se questi descrivono solo una parte del fenomeno che si vuole studiare, in altri termini se la loro qualità statistica è scarsa. Non è vero che &amp;ldquo;&lt;a href=&#34;https://www.ft.com/content/21a6e7d8-b479-11e3-a09a-00144feabdc0&#34;&gt;se ci sono abbastanza dati i numeri parlano da soli&lt;/a&gt;&amp;rdquo;, è vero invece che la spazzatura in ingresso produce solo spazzatura in uscita.&lt;/p&gt;&#xA;&lt;hr style = &#34;border: none; &#xA;            border-top: 3px double #333; &#xA;            color: #333; &#xA;            overflow: visible; &#xA;            height: 5px; &#xA;            width: 50%; &#xA;            margin-left: auto; &#xA;            margin-right: auto;&#34;&#xA;&gt;&#xA;&#xA;&lt;p&gt;I report periodici di &lt;a href=&#34;https://www.backblaze.com&#34;&gt;Backblaze&lt;/a&gt; (l&amp;rsquo;ultimo pubblicato, relativo al primo trimestre del 2023, si &lt;a href=&#34;https://www.backblaze.com/blog/backblaze-drive-stats-for-q1-2023/&#34;&gt;trova qui&lt;/a&gt;) sul tasso di rottura dei dischi installati nei suoi data center sparsi per il mondo (si parla oggi di ben 250.000 dischi) sono diventati una lettura imprescindibile per chi si occupa di hardware, ed un modo per valutare la qualità dell&amp;rsquo;una o dell&amp;rsquo;altra marca o modello di disco rigido.&lt;/p&gt;&#xA;&lt;p&gt;Niente da dire, i report sono fatti molto bene e descrivono con cura il comportamento reale dei dischi usati nei data center dell&amp;rsquo;azienda. Ma, spiace dirlo, questi report non servono a valutare il comportamento dei dischi rigidi installati nei nostri computer, e in qualche misura anche nei nostri NAS, e non possono valere di certo come &lt;a href=&#34;https://www.backblaze.com/blog/what-hard-drive-should-i-buy/&#34;&gt;consigli per gli acquisti&lt;/a&gt;.&lt;/p&gt;&#xA;&lt;p&gt;I dischi montati nei data center di Backblaze vengono accesi e funzionano quasi ininterrottamente fino alla fine della loro vita utile (o finché si rompono), sono soggetti a condizioni di temperatura e umidità ben controllate, non sono sottoposti a sbalzi di tensione o a spegnimenti improvvisi, e anche il &lt;a href=&#34;https://www.backblaze.com/blog/petabytes-on-a-budget-how-to-build-cheap-cloud-storage/&#34;&gt;problema delle vibrazioni&lt;/a&gt;, ingigantito dal grande numero di dischi montati in ogni singola unità di storage, viene affrontato in modo adeguato.&lt;/p&gt;&#xA;&lt;p&gt;Tutto il contrario di quello che avviene nelle nostre case o nei nostri uffici, dove i computer vengono accesi e spenti di continuo (orrore!), dove i computer vengono spostati senza troppi scrupoli anche se sono accesi (altro orrore!), dove l&amp;rsquo;ENEL ogni tanto fa mancare l&amp;rsquo;energia elettrica, o dove i weekend (e anche le semplici notti) fanno schizzare in alto o in basso le temperature (non so voi ma il mio ufficio diventa rovente durante i weekend estivi e gelato in inverno, e ci vuole una buona mezz&amp;rsquo;ora, il lunedì, per tornare a condizioni normali).&lt;/p&gt;&#xA;&lt;p&gt;I dischi di Backblaze sono come i votanti del Literary Digest, anche se sono tantissimi rappresentano solo una piccola parte delle modalità di uso di un disco rigido, e tutte le conclusioni statistiche tratte dai loro dati valgono al 100% solo per quella specifica modalità di uso, non per tutto l&amp;rsquo;universo dei dischi rigidi.&lt;/p&gt;&#xA;&lt;p&gt;Volete comprare gli stessi dischi usati da Backblaze? Niente in contrario, sono di sicuro modelli veloci e di qualità. Però, mi spiace dirlo, anche se i report li qualificano come dischi particolarmente affidabili per i data center, non è affatto detto che faranno lo stesso anche sui vostri computer.&lt;/p&gt;&#xA;&lt;div class=&#34;footnotes&#34; role=&#34;doc-endnotes&#34;&gt;&#xA;&lt;hr&gt;&#xA;&lt;ol&gt;&#xA;&lt;li id=&#34;fn:1&#34;&gt;&#xA;&lt;p&gt;È un po&amp;rsquo; più complicato di così ma il succo è quello.&amp;#160;&lt;a href=&#34;#fnref:1&#34; class=&#34;footnote-backref&#34; role=&#34;doc-backlink&#34;&gt;&amp;#x21a9;&amp;#xfe0e;&lt;/a&gt;&lt;/p&gt;&#xA;&lt;/li&gt;&#xA;&lt;li id=&#34;fn:2&#34;&gt;&#xA;&lt;p&gt;Per il cervello umano è banale capire dal contesto che la rivoluzione francese non può essere avvenuta in Nord America. Non è così per i sistemi di generazione di testi, che calcolano la probabilità che si presentino determinati flussi di parole ma non hanno la minima idea del loro significato.&amp;#160;&lt;a href=&#34;#fnref:2&#34; class=&#34;footnote-backref&#34; role=&#34;doc-backlink&#34;&gt;&amp;#x21a9;&amp;#xfe0e;&lt;/a&gt;&lt;/p&gt;&#xA;&lt;/li&gt;&#xA;&lt;li id=&#34;fn:3&#34;&gt;&#xA;&lt;p&gt;L&amp;rsquo;impossibilità di &lt;em&gt;comprendere&lt;/em&gt; i dati che gli vengono forniti è alla base del timore che i sistemi di intelligenza artificiale possano contribuire a diffondere informazioni sbagliate o totalmente inventate, propagandate come vere solo perché prodotte dal “cervellone” artificiale. Un problema molto serio, che preoccupa moltissimo i &lt;a href=&#34;https://mitsloan.mit.edu/ideas-made-to-matter/why-neural-net-pioneer-geoffrey-hinton-sounding-alarm-ai&#34;&gt;ricercatori più avvertiti&lt;/a&gt; (e dovrebbe preoccupare anche noi).&amp;#160;&lt;a href=&#34;#fnref:3&#34; class=&#34;footnote-backref&#34; role=&#34;doc-backlink&#34;&gt;&amp;#x21a9;&amp;#xfe0e;&lt;/a&gt;&lt;/p&gt;&#xA;&lt;/li&gt;&#xA;&lt;/ol&gt;&#xA;&lt;/div&gt;&#xA;</description>
    </item>
    <item>
      <title>ChatGPT al capolinea</title>
      <link>https://melabit.com/it/2023/04/24/chatgpt-al-capolinea/</link>
      <pubDate>Mon, 24 Apr 2023 06:00:00 +0000</pubDate>
      <guid>https://melabit.com/it/2023/04/24/chatgpt-al-capolinea/</guid>
      <description>&lt;p&gt;&lt;img src=&#34;https://melabit.com/img/2023-04-24-chatgpt-al-capolinea/donald-giannatti-xI8cWGzAN5U-unsplash.jpg&#34; alt=&#34;&#34;&gt;&#xA;&amp;ndash; &lt;em&gt;Fonte: &lt;a href=&#34;https://unsplash.com/@wizwow&#34;&gt;Donald Giannatti&lt;/a&gt; su &lt;a href=&#34;https://unsplash.com&#34;&gt;Unsplash&lt;/a&gt;&lt;/em&gt;.&lt;/p&gt;&#xA;&lt;p&gt;Chiunque ne sappia un po&amp;rsquo; di queste faccende lo aveva capito da tempo: i modelli linguistici di grandi dimensioni (&lt;em&gt;Large Language Models&lt;/em&gt;, LLM), come &lt;a href=&#34;https://openai.com/product/gpt-4&#34;&gt;GPT-3/4&lt;/a&gt; di OpenAI, da cui deriva la stella del momento &lt;a href=&#34;https://chat.openai.com/&#34;&gt;ChatGPT&lt;/a&gt;, o come &lt;a href=&#34;https://ai.facebook.com/blog/large-language-model-llama-meta-ai/&#34;&gt;LLaMA&lt;/a&gt; di Facebook, &lt;a href=&#34;https://crfm.stanford.edu/2023/03/13/alpaca.html&#34;&gt;Alpaca&lt;/a&gt; di Stanford e compagnia bella, non hanno un futuro, sono troppo complicati, avidi di risorse e costosi per essere sostenibili a lungo termine.&lt;/p&gt;&#xA;&lt;p&gt;Sembra di assistere alla riedizione della corsa al GHz nei processori di classe Pentium di una ventina di anni fa, conclusasi quando Intel ed AMD finirono per &lt;a href=&#34;https://www.theregister.com/2004/05/07/intel_cancels_tejas/&#34;&gt;sbattere contro un muro&lt;/a&gt; costituito dai limiti fisici della tecnologia dei semiconduttori, in particolare l&amp;rsquo;impossibilità di raffreddare adeguatamente la CPU, obbligando i produttori ad un cambio di prospettiva che ci ha portato ad avere processori molto più potenti ma allo stesso tempo infinitamente più efficienti.&lt;/p&gt;&#xA;&lt;p&gt;Anche gli LLM stanno per sbattere contro un muro analogo. Nel 2018, il modello GPT-1 contava 117 milioni di parametri, mentre nel 2019 il suo successore, GPT-2, ne contava già 1,5 miliardi. Nel 2020, GPT-3 ha raggiunto il numero strabiliante di 175 miliardi di parametri, mentre si stima che GPT-4, appena rilasciato, abbia circa 1000 miliardi di parametri e che il suo addestramento sia costato ben più di 100 milioni di dollari (i dati sono tratti da &lt;a href=&#34;https://medium.com/walmartglobaltech/the-journey-of-open-ai-gpt-models-32d95b7b7fb2&#34;&gt;questo articolo su Medium&lt;/a&gt;).&lt;/p&gt;&#xA;&lt;p&gt;In sostanza, in appena 5 anni  il numero di parametri del modello linguistico &lt;em&gt;Generative Pretrained Transformer&lt;/em&gt;, meglio noto come GPT, è cresciuto di ben 10.000 volte, quasi un ordine di grandezza all&amp;rsquo;anno, ma andare avanti a questo ritmo è fisicamente impossibile. E non lo dico io, lo dice &lt;a href=&#34;https://www.wired.com/story/openai-ceo-sam-altman-the-age-of-giant-ai-models-is-already-over/&#34;&gt;Sam Altman, l&amp;rsquo;amministratore delegato di OpenAI&lt;/a&gt;, che è l&amp;rsquo;azienda che sta dietro ai modelli GPT-1/4 e a ChatGPT.&lt;/p&gt;&#xA;&lt;blockquote&gt;&#xA;&lt;p&gt;&amp;ldquo;Penso che siamo alla fine dell&amp;rsquo;era in cui ci saranno questi modelli, diciamo, giganti, giganteschi. Li miglioreremo in altri modi&amp;rdquo;.&lt;/p&gt;&#xA;&lt;p&gt;“I think we&amp;rsquo;re at the end of the era where it&amp;rsquo;s going to be these, like, giant, giant models. We&amp;rsquo;ll make them better in other ways.”&lt;/p&gt;&lt;/blockquote&gt;&#xA;&lt;p&gt;Se lo sostiene perfino lui, è evidente che la gestione di questi modelli linguistici sia diventata insostenibile anche per una azienda piena di soldi come OpenAI. Non è un caso che nel frattempo lo sviluppo di GPT-5 sia in &lt;em&gt;standby&lt;/em&gt;.&lt;/p&gt;&#xA;&lt;p&gt;Serve un cambio di rotta, perché nel campo dell&amp;rsquo;intelligenza artificiale non è affatto detto che &lt;a href=&#34;https://www.zdnet.com/article/amazons-alexa-scientists-demonstrate-bigger-ai-isnt-always-better/&#34;&gt;più grande significhi per forza di cose migliore&lt;/a&gt;.&lt;/p&gt;&#xA;</description>
    </item>
    <item>
      <title>ChatGPT al bando: come aggirare ancora più facilmente il blocco</title>
      <link>https://melabit.com/it/2023/04/21/chatgpt-al-bando-come-aggirare-ancora-piu-facilmente-il-blocco/</link>
      <pubDate>Fri, 21 Apr 2023 18:00:00 +0000</pubDate>
      <guid>https://melabit.com/it/2023/04/21/chatgpt-al-bando-come-aggirare-ancora-piu-facilmente-il-blocco/</guid>
      <description>&lt;p&gt;Esiste un modo per aggirare il blocco a ChatGPT deciso del Garante per la privacy ancora più semplice del &lt;a href=&#34;https://melabit.com/it/2023/04/03/chatgpt-al-bando-come-aggirare-il-blocco-e-vivere-felici/&#34;&gt;metodo descritto nell&amp;rsquo;ultimo post&lt;/a&gt;,  che ci permette di continuare ad usare il nostro solito browser senza dover trafficare con Opera, VPN e compagnia bella (grazie Paoloo per la segnalazione!).&lt;/p&gt;&#xA;&lt;p&gt;Dobbiamo solo andare sul sito di &lt;a href=&#34;https://poe.com&#34;&gt;Poe.com&lt;/a&gt;,&lt;/p&gt;&#xA;&lt;p&gt;&lt;a href=&#34;https://poe.com&#34;&gt;&lt;img src=&#34;https://melabit.com/img/2023-04-21-chatgpt-al-bando-come-aggirare-ancora-piu-facilmente-il-blocco/poe.png&#34; alt=&#34;&#34;&gt;&lt;/a&gt;&lt;/p&gt;&#xA;&lt;p&gt;decidere come autenticarci (se possibile, io evito di condividere le informazioni dei miei account Google e Apple e preferisco usare l&amp;rsquo;email),&lt;/p&gt;&#xA;&lt;img src=&#34;https://melabit.com/img/2023-04-21-chatgpt-al-bando-come-aggirare-ancora-piu-facilmente-il-blocco/poe-login.png&#34; alt=&#34;&#34;&gt;&lt;p&gt;e premere il tasto &amp;ldquo;Go&amp;rdquo;. Poe invia all&amp;rsquo;indirizzo email indicato un codice di verifica, con il quale possiamo accedere al servizio senza bisogno di creare una password specifica.&lt;/p&gt;&#xA;&lt;p&gt;La schermata iniziale di Poe mostra nella colonna di sinistra la lista dei sistemi di generazione di testo supportati, fra cui ovviamente c&amp;rsquo;è ChatGPT, il progenitore GPT-4 e una serie di sistemi di cui sapevo a malapena l&amp;rsquo;esistenza, mentre la finestra centrale più grande serve per interagire con il servizio scelto.&lt;/p&gt;&#xA;&lt;img src=&#34;https://melabit.com/img/2023-04-21-chatgpt-al-bando-come-aggirare-ancora-piu-facilmente-il-blocco/poe-service-list.png&#34; alt=&#34;&#34;&gt;&lt;p&gt;Come potete vedere qui sotto, ChatGPT funziona alla perfezione all&amp;rsquo;interno di Poe, senza nemmeno i piccoli problemi di Opera, forse perché non è (ancora) consapevole di essere stato messo al bando in Italia. 🤣&lt;/p&gt;&#xA;&lt;img src=&#34;https://melabit.com/img/2023-04-21-chatgpt-al-bando-come-aggirare-ancora-piu-facilmente-il-blocco/chatgpt-in-poe.png&#34; alt=&#34;&#34;&gt;&lt;p&gt;Inutile dire che anche il progenitore GPT-4 non sa niente del bando (benvenuto 2021!), e come lui anche gli altri servizi derivati supportati da Poe.&lt;/p&gt;&#xA;&lt;img src=&#34;https://melabit.com/img/2023-04-21-chatgpt-al-bando-come-aggirare-ancora-piu-facilmente-il-blocco/gpt4-in-poe.png&#34; alt=&#34;&#34;&gt;&lt;p&gt;A proposito, Poe è &lt;a href=&#34;https://quorablog.quora.com/Poe-1&#34;&gt;sviluppato da Quora&lt;/a&gt; ed è l&amp;rsquo;acronimo di &amp;ldquo;Platform for Open Exploration”. Esiste anche l&amp;rsquo;&lt;a href=&#34;https://apps.apple.com/it/app/poe-fast-ai-chat/id1640745955&#34;&gt;app dedicata per iOS&lt;/a&gt;, per cui finalmente potrete usare ChatGPT (e simili) sull&amp;rsquo;iPhone senza bisogno di installare applicazioni strane o poco affidabili.&lt;/p&gt;&#xA;&lt;p&gt;Davvero ben fatto!&lt;/p&gt;&#xA;</description>
    </item>
    <item>
      <title>ChatGPT al bando: come aggirare il blocco e vivere felici</title>
      <link>https://melabit.com/it/2023/04/03/chatgpt-al-bando-come-aggirare-il-blocco-e-vivere-felici/</link>
      <pubDate>Mon, 03 Apr 2023 20:00:00 +0000</pubDate>
      <guid>https://melabit.com/it/2023/04/03/chatgpt-al-bando-come-aggirare-il-blocco-e-vivere-felici/</guid>
      <description>&lt;p&gt;Si può commentare una cretinata? Come la &lt;a href=&#34;https://www.corriere.it/tecnologia/23_marzo_31/stop-immediato-a-chatgpt-in-italia-il-garante-della-privacy-dati-personali-a-rischio-f9940be2-f883-46b7-a5dc-4fd0828c8xlk.shtml&#34;&gt;decisione del Garante per la privacy&lt;/a&gt;, che ha bandito &lt;a href=&#34;https://openai.com/blog/chatgpt&#34;&gt;ChatGPT&lt;/a&gt; dal territorio nazionale, aprendo contestualmente la solita &amp;ldquo;istruttoria&amp;rdquo; che finirà, come sempre, in una gigantesca bolla di sapone?&lt;/p&gt;&#xA;&lt;p&gt;Secondo il Garante, ChatGPT mette i nostri dati personali a rischio, cosa in parte condivisibile, ma dov&amp;rsquo;era il Garante negli ultimi 10 anni quando Google, Facebook, Microsoft e compagnia bella hanno fatto strame impunemente dei nostri dati personali?&lt;/p&gt;&#xA;&lt;p&gt;ChatGPT è più pericolosa, visto che crea un mondo tutto suo in cui è difficile distinguere il vero dal falso? Ma allora Bing è persino peggio, Bing ha letteralmente inventato articoli che non ho mai scritto e che non esistono proprio, ficcandoli però in un contesto plausibile in cui sembrano veri. Ma Bing viene da mamma Microsoft e si sa, la mamma non si tocca, né in Italia né altrove.&lt;/p&gt;&#xA;&lt;p&gt;E poi, siamo seri, ma davvero qualcuno pensa che bloccare ChatGPT in Italia, nella sola Italia, serva a bloccare questo sistema di (poca) intelligenza artificiale che sta creando scompiglio in tutto il mondo? A me una decisione del genere fa pensare ai magistrati degli anni &amp;lsquo;70, che censuravano certi film ritenuti &amp;ldquo;scollacciati&amp;rdquo;, creando un&amp;rsquo;attesa e un interesse che altrimenti non avrebbero mai avuto.&lt;/p&gt;&#xA;&lt;hr style = &#34;border: none; &#xA;            border-top: 3px double #333; &#xA;            color: #333; &#xA;            overflow: visible; &#xA;            height: 5px; &#xA;            width: 50%; &#xA;            margin-left: auto; &#xA;            margin-right: auto;&#34;&#xA;&gt;&#xA;&#xA;&lt;p&gt;Ma la decisione del Garante è ancora più puerile perché ci vuole davvero pochissimo per aggirarla, e non servono nemmeno conoscenze tecniche particolari per farlo.&lt;/p&gt;&#xA;&lt;p&gt;Se provo ad andare sul sito di ChatGPT dal mio solito Firefox (ma vale lo stesso per qualunque altro browser) mi ritrovo con un messaggio che mi informa che l&amp;rsquo;accesso a ChatGPT dall&amp;rsquo;Italia è stato disabilitato.&lt;/p&gt;&#xA;&lt;img src=&#34;https://melabit.com/img/2023-04-03-chatgpt-al-bando-come-aggirare-il-blocco-e-vivere-felici/chatgpt-with-firefox.png&#34; alt=&#34;&#34;&gt;&lt;p&gt;Cha fare? Aspettare tempi migliori? Lasciare perdere il computer e andare a coltivare la terra, cosa che magari di questi tempi darebbe più soddisfazioni? Niente affatto, perché ci basta scaricare &lt;a href=&#34;https://www.opera.com&#34;&gt;Opera&lt;/a&gt;, installarlo sul nostro Mac (o su un computer su cui gira Windows o Linux), attivare dalle preferenze dell&amp;rsquo;applicazione la VPN gratuita integrata,&lt;/p&gt;&#xA;&lt;img src=&#34;https://melabit.com/img/2023-04-03-chatgpt-al-bando-come-aggirare-il-blocco-e-vivere-felici/opera-vpn.png&#34; alt=&#34;&#34;&gt;&lt;p&gt;per tornare ad avere ChatGPT attivo sul nostro computer.&lt;/p&gt;&#xA;&lt;img src=&#34;https://melabit.com/img/2023-04-03-chatgpt-al-bando-come-aggirare-il-blocco-e-vivere-felici/chatgpt-with-opera.png&#34; alt=&#34;&#34;&gt;&lt;p&gt;Funziona solo sui sistemi operativi desktop, perché Opera per iOS e, credo, anche la versione per Android non integrano la VPN, ma è già qualcosa.&lt;/p&gt;&#xA;&lt;p&gt;C&amp;rsquo;è da dire che ogni volta che cercherete di recuperare una chat precedente vi verrà chiesto se siete davvero degli umani, ma tutto sommato non è più una domanda così peregrina.&lt;/p&gt;&#xA;&lt;hr style = &#34;border: none; &#xA;            border-top: 3px double #333; &#xA;            color: #333; &#xA;            overflow: visible; &#xA;            height: 5px; &#xA;            width: 50%; &#xA;            margin-left: auto; &#xA;            margin-right: auto;&#34;&#xA;&gt;&#xA;&#xA;&lt;p&gt;E se si chiede a ChatGPT cosa ne pensa della decisione del Garante italiano),&lt;/p&gt;&#xA;&lt;img src=&#34;https://melabit.com/img/2023-04-03-chatgpt-al-bando-come-aggirare-il-blocco-e-vivere-felici/chatgpt-replies.png&#34; alt=&#34;&#34;&gt;&lt;p&gt;&amp;ldquo;lui&amp;rdquo; risponde in modo fumoso, nemmeno fosse un avvocato, però è chiaro che non è d&amp;rsquo;accordo. E io con lui.&lt;/p&gt;&#xA;</description>
    </item>
    <item>
      <title>Fai sbocciare la tua creatività: DiffusionBee per generare immagini sul Mac</title>
      <link>https://melabit.com/it/2023/03/06/fai-sbocciare-la-tua-creativita-diffusionbee-per-generare-immagini-sul-mac/</link>
      <pubDate>Mon, 06 Mar 2023 06:00:00 +0000</pubDate>
      <guid>https://melabit.com/it/2023/03/06/fai-sbocciare-la-tua-creativita-diffusionbee-per-generare-immagini-sul-mac/</guid>
      <description>&lt;p&gt;Negli ultimi mesi &lt;a href=&#34;https://openai.com/blog/chatgpt/&#34;&gt;ChatGPT&lt;/a&gt; ha riempito le pagine dei giornali e del web, oscurando quello che è stato per mesi uno dei giocattoli preferiti dei nerd di tutto il mondo, la generazione di immagini tramite intelligenza artificiale.&lt;/p&gt;&#xA;&lt;p&gt;Abbiamo giocato per mesi con &lt;a href=&#34;https://openai.com/dall-e-2/&#34;&gt;DALL-E&lt;/a&gt;, con &lt;a href=&#34;https://www.craiyon.com/&#34;&gt;Crayon&lt;/a&gt; o con &lt;a href=&#34;https://stablediffusionweb.com/&#34;&gt;StableDiffusion&lt;/a&gt;, strumenti che funzionano online o che richiedono l&amp;rsquo;uso della &lt;a href=&#34;https://github.com/brycedrennan/imaginAIry&#34;&gt;linea di comando&lt;/a&gt; o l&amp;rsquo;esecuzione del &lt;a href=&#34;https://keras.io/guides/keras_cv/generate_images_with_stable_diffusion/&#34;&gt;codice sorgente&lt;/a&gt; originale.&lt;/p&gt;&#xA;&lt;p&gt;Da qualche tempo è disponibile uno strumento più comodo per giocare con questi sistemi direttamente sul proprio computer utilizzando una comoda interfaccia grafica. Si tratta di &lt;a href=&#34;https://diffusionbee.com/&#34;&gt;DiffusionBee&lt;/a&gt;, che per ora è riservato ai soli utenti di macOS, con in arrivo l&amp;rsquo;inevitabile versione per Windows (ma vogliamo parlare prima o poi del fatto che ormai il software più interessante è disponibile &lt;em&gt;prima&lt;/em&gt; per il Mac e solo &lt;em&gt;dopo&lt;/em&gt; per Windows?).&lt;/p&gt;&#xA;&lt;p&gt;Io l&amp;rsquo;ho provato e i risultati sono interessanti, anche se con qualche ombra.&lt;/p&gt;&#xA;&lt;h4 id=&#34;mac-intel-o-apple-silicon&#34;&gt;Mac Intel o Apple Silicon?&lt;/h4&gt;&#xA;&lt;p&gt;DiffusionBee è &lt;a href=&#34;https://diffusionbee.com/download&#34;&gt;disponibile&lt;/a&gt; in due versioni separate, una specifica per processori Intel e l&amp;rsquo;altra per Apple Silicon (cioè per le varie incarnazioni dei processori M1 ed M2 installati nei Mac più recenti). Anzi, per Apple Silicon sono disponibili ben due versioni, una a qualità normale e l&amp;rsquo;altra in alta qualità, che produce immagini migliori a scapito della velocità di esecuzione.&lt;/p&gt;&#xA;&lt;p&gt;Dico subito che la versione di DiffusionBee per Intel richiede un processore molto performante. Il mio Mac di casa, con processore Intel i5 e 16 GB di RAM, è andato in crash per due volte, per cui è chiaro che le sue riserve di calcolo non sono sufficienti. Potrei provarlo sul Mac i7 dell&amp;rsquo;ufficio, ma ho molte remore, ho bisogno che sia stabile e un suo eventuale riavvio imprevisto mi creerebbe non pochi problemi.&lt;/p&gt;&#xA;&lt;p&gt;Nessun problema invece su un MacBook Air M1, qui di potenza ce n&amp;rsquo;è più che a sufficienza e DiffusionBee va alla grande. Bisogna considerare però che il programma vero e proprio occupa poco spazio, circa 340 MB la versione per Apple Silicon e poco di più per quella Intel, ma al primo avvio deve scaricare ben 4 GB di dati del modello di generazione delle immagini suddivisi in due blocchi da 2 GB ciascuno, che diventano 8 GB una volta scompattati. Tenetene conto se avete poco spazio.&lt;/p&gt;&#xA;&lt;p&gt;&lt;img src=&#34;https://melabit.com/img/2023-03-06-fai-sbocciare-la-tua-creativita-diffusionbee-per-generare-immagini-sul-mac/downloading-model-stage1.png&#34; alt=&#34;&#34;&gt;&#xA;&lt;img src=&#34;https://melabit.com/img/2023-03-06-fai-sbocciare-la-tua-creativita-diffusionbee-per-generare-immagini-sul-mac/downloading-model-stage2.png&#34; alt=&#34;&#34;&gt;&lt;/p&gt;&#xA;&lt;p&gt;Una volta scompattato, il modello viene caricato in memoria e si può finalmente incominciare ad usare il programma.&lt;/p&gt;&#xA;&lt;img src=&#34;https://melabit.com/img/2023-03-06-fai-sbocciare-la-tua-creativita-diffusionbee-per-generare-immagini-sul-mac/loading-model.png&#34; alt=&#34;&#34;&gt;&lt;h4 id=&#34;interfaccia-utente&#34;&gt;Interfaccia utente&lt;/h4&gt;&#xA;&lt;p&gt;La finestra principale di DiffusionBee è semplicissima, in pratica consiste solo in un box di testo dove si inserisce una frase (&lt;em&gt;prompt&lt;/em&gt;) che innesca la generazione delle immagini, e in una parte inferiore più ampia che mostra le immagini generale. Il programma dispone anche di funzioni più specializzate, attivabili cliccando sulle etichette visibili nella parte superiore della finestra, che saranno discusse brevemente più avanti.&lt;/p&gt;&#xA;&lt;img src=&#34;https://melabit.com/img/2023-03-06-fai-sbocciare-la-tua-creativita-diffusionbee-per-generare-immagini-sul-mac/image-generation-1.png&#34; alt=&#34;&#34;&gt;&lt;p&gt;Per le prime prove ho utilizzato un prompt iniziale molto semplice incentrato sulle mele (che altro scegliere su un Mac?), &amp;ldquo;&lt;em&gt;Un albero con delle mele rosse e verdi&lt;/em&gt;&amp;rdquo;,&lt;/p&gt;&#xA;&lt;p&gt;&lt;img src=&#34;https://melabit.com/img/2023-03-06-fai-sbocciare-la-tua-creativita-diffusionbee-per-generare-immagini-sul-mac/image-generation-2.png&#34; alt=&#34;&#34;&gt;&#xA;&lt;img src=&#34;https://melabit.com/img/2023-03-06-fai-sbocciare-la-tua-creativita-diffusionbee-per-generare-immagini-sul-mac/image-generation-3.png&#34; alt=&#34;&#34;&gt;&lt;/p&gt;&#xA;&lt;p&gt;e il primo risultato è semplicemente orribile. Oltre che sbagliato,  visto che avevo chiesto &amp;ldquo;un albero con delle mele rosse e verdi&amp;rdquo;, non &amp;ldquo;un albero rosso con delle mele verdi&amp;rdquo;,&lt;/p&gt;&#xA;&lt;img src=&#34;https://melabit.com/img/2023-03-06-fai-sbocciare-la-tua-creativita-diffusionbee-per-generare-immagini-sul-mac/generated-image-1.png&#34; alt=&#34;&#34;&gt;&lt;p&gt;Riprovando senza cambiare niente i risultati migliorano parecchio, anche se è difficile capire il perché.&lt;/p&gt;&#xA;&lt;p&gt;&lt;img src=&#34;https://melabit.com/img/2023-03-06-fai-sbocciare-la-tua-creativita-diffusionbee-per-generare-immagini-sul-mac/generated-image-2.png&#34; alt=&#34;&#34;&gt;&#xA;&lt;img src=&#34;https://melabit.com/img/2023-03-06-fai-sbocciare-la-tua-creativita-diffusionbee-per-generare-immagini-sul-mac/generated-image-3.png&#34; alt=&#34;&#34;&gt;&lt;/p&gt;&#xA;&lt;h4 id=&#34;si-può-fare-di-meglio&#34;&gt;Si può fare di meglio&lt;/h4&gt;&#xA;&lt;p&gt;Prompt più elaborati restituiscono immagini decisamente migliori, almeno finché si rimane nell&amp;rsquo;ambito dell&amp;rsquo;arte astratta. Ma probabilmente però queste sono solo variazioni su temi ben noti al programma, visto che il modello di intelligenza artificiale dovrebbere essere stato &lt;em&gt;nutrito&lt;/em&gt; anche con le immagini dei grandi pittori.&lt;/p&gt;&#xA;&lt;p&gt;&lt;img src=&#34;https://melabit.com/img/2023-03-06-fai-sbocciare-la-tua-creativita-diffusionbee-per-generare-immagini-sul-mac/klee-ai.png&#34; alt=&#34;&#34;&gt;&#xA;&lt;img src=&#34;https://melabit.com/img/2023-03-06-fai-sbocciare-la-tua-creativita-diffusionbee-per-generare-immagini-sul-mac/miro-ai.png&#34; alt=&#34;&#34;&gt;&lt;/p&gt;&#xA;&lt;p&gt;Se invece si prova a riprodurre invece certe immagini tratte da &lt;a href=&#34;https://arthub.ai/&#34;&gt;Arthub.ai&lt;/a&gt;, un sito dedicato alla condivisione dell&amp;rsquo;arte &lt;em&gt;generata&lt;/em&gt; (o magari &lt;em&gt;generativa&lt;/em&gt;), i risultati sono decisamente meno buoni rispetto a ciò che si vede sul sito (mi riferisco al contenuto tecnico delle immagini, quello artistico è un&amp;rsquo;altra cosa).&lt;/p&gt;&#xA;&lt;p&gt;Prendiamo ad esempio &lt;a href=&#34;https://arthub.ai/art/44686&#34;&gt;questa&lt;/a&gt; bellissima &amp;ldquo;&lt;em&gt;donna bionda con gli occhi azzurri che indossa un lungo e fluente abito rosso, che chiede un cocktail in un bar, la vigilia di Capodanno, in un futuro distopico alla Bladerunner&lt;/em&gt;&amp;rdquo;, che sembra dipinta a mano.&lt;/p&gt;&#xA;&lt;img src=&#34;https://melabit.com/img/2023-03-06-fai-sbocciare-la-tua-creativita-diffusionbee-per-generare-immagini-sul-mac/ah3-f6b063dfaaa7.jpeg&#34; alt=&#34;&#34;&gt;&lt;p&gt;DiffusionBee con i parametri di default la interpreta così, facendoci interrogare sulla reale posizione del bicchiere centrale.&lt;/p&gt;&#xA;&lt;img src=&#34;https://melabit.com/img/2023-03-06-fai-sbocciare-la-tua-creativita-diffusionbee-per-generare-immagini-sul-mac/blonde-1.png&#34; alt=&#34;&#34;&gt;&lt;p&gt;Oppure così, dove sembra che la povera signorina abbia un piede al posto della mano.&lt;/p&gt;&#xA;&lt;img src=&#34;https://melabit.com/img/2023-03-06-fai-sbocciare-la-tua-creativita-diffusionbee-per-generare-immagini-sul-mac/blonde-2.png&#34; alt=&#34;&#34;&gt;&lt;p&gt;Purtroppo Arthub.ai non ci dà quasi mai informazioni su come sono state generate le immagini presenti sul sito, ma è più che probabile che queste abbiano richiesto ore ed ore di elaborazione su megacomputer preparati ad hoc. DiffusionBee, invece, gira su dei computer &lt;em&gt;normali&lt;/em&gt; e fa il suo lavoro in pochi secondi, è inevitabile che non possa mai raggiungere quei livelli.&lt;/p&gt;&#xA;&lt;p&gt;Ma se si è consapevoli dei suoi limiti e si prova ad essere più &lt;em&gt;creativi&lt;/em&gt; che &lt;em&gt;riproduttivi&lt;/em&gt;, con un po&amp;rsquo; di pazienza si possono ottenere dei risultati decenti.&lt;/p&gt;&#xA;&lt;p&gt;Infatti, anche se la riproduzione del corpo umano da parte di DiffusionBee ha dei seri problemi (come è evidente dalle immagine precedenti, così come da molte altre prove non mostrate qui per semplicità),&lt;sup id=&#34;fnref:1&#34;&gt;&lt;a href=&#34;#fn:1&#34; class=&#34;footnote-ref&#34; role=&#34;doc-noteref&#34;&gt;1&lt;/a&gt;&lt;/sup&gt; in altri campi il programma produce risultati decisamente migliori, come si può vedere negli esempi che seguono.&lt;/p&gt;&#xA;&lt;p&gt;Magari dovremo ripetere più di una volta la generazione delle immagini, ma con un po&amp;rsquo; di pazienza si riesce ad ottenere dei risultati interessanti, magari anche giocando con gli stili predefiniti e le opzioni di generazione selezionabili cliccando sulle etichette relative visibili sotto il box di testo.&lt;/p&gt;&#xA;&lt;p&gt;&lt;img src=&#34;https://melabit.com/img/2023-03-06-fai-sbocciare-la-tua-creativita-diffusionbee-per-generare-immagini-sul-mac/buildings-1.png&#34; alt=&#34;&#34;&gt;&#xA;&lt;img src=&#34;https://melabit.com/img/2023-03-06-fai-sbocciare-la-tua-creativita-diffusionbee-per-generare-immagini-sul-mac/buildings-2.png&#34; alt=&#34;&#34;&gt;&#xA;&lt;img src=&#34;https://melabit.com/img/2023-03-06-fai-sbocciare-la-tua-creativita-diffusionbee-per-generare-immagini-sul-mac/seaside.png&#34; alt=&#34;&#34;&gt;&#xA;&lt;img src=&#34;https://melabit.com/img/2023-03-06-fai-sbocciare-la-tua-creativita-diffusionbee-per-generare-immagini-sul-mac/late-winter.png&#34; alt=&#34;&#34;&gt;&lt;/p&gt;&#xA;&lt;h4 id=&#34;altre-funzioni&#34;&gt;Altre funzioni&lt;/h4&gt;&#xA;&lt;p&gt;DiffusionBee permette anche di generare una immagine a partire da un&amp;rsquo;altra immagine, di rimuovere o di aggiungere particolari ad una immagine già elaborat o di recuperare la storia di tutte le immagini generate dall programma. Tutte queste funzioni vengono attivate cliccando sulle etichette situate nella parte superiore della finestra.&lt;/p&gt;&#xA;&lt;p&gt;Ad esempio, selezionando la scheda &lt;code&gt;Image To Image&lt;/code&gt; si può trasformare l&amp;rsquo;immagine della spiaggia invernale in una vista estiva, peccato che il modello di &lt;em&gt;intelligenza&lt;/em&gt; artificiale dimentichi di togliere la neve!&lt;/p&gt;&#xA;&lt;img src=&#34;https://melabit.com/img/2023-03-06-fai-sbocciare-la-tua-creativita-diffusionbee-per-generare-immagini-sul-mac/winter-to-summer.png&#34; alt=&#34;&#34;&gt;&lt;p&gt;E anche possibile modificare i dettagli di una immagine (scheda &lt;code&gt;Impanting&lt;/code&gt;) oppure estendere l&amp;rsquo;immagine prodotta (scheda &lt;code&gt;Outpainting&lt;/code&gt;). Facendo così si può riuscire a restituire alla signorina bionda una mano quasi degna di questo nome (anche se ho dovuto riprovare parecchie volte prima di ottenere un risultato quasi accettabile).&lt;/p&gt;&#xA;&lt;img src=&#34;https://melabit.com/img/2023-03-06-fai-sbocciare-la-tua-creativita-diffusionbee-per-generare-immagini-sul-mac/blonde-2-fixed.png&#34; alt=&#34;&#34;&gt;&lt;p&gt;Ma la funzione di gran lunga più utile è l&amp;rsquo;ultima, &lt;code&gt;History&lt;/code&gt;, che mostra tutte le immagini generate dal programma insieme ai prompt e ai principali parametri utilizzati per produrle. È una funzione fondamentale per tornare sui propri passi e recuperare quello che si è già fatto oppure per fare delle nuove prove a partire da una configurazione ben definita.&lt;/p&gt;&#xA;&lt;h4 id=&#34;anche-in-alta-qualità&#34;&gt;Anche in alta qualità&lt;/h4&gt;&#xA;&lt;p&gt;La versione in alta qualità (HQ) di DiffusionBee, specifica per Apple Silicon, ha lo stesso nome di quella a qualità normale, per cui non può essere installata insieme a quest&amp;rsquo;ultima. Il motivo dovrebbe risiedere nel fatto che si basa su un modello di generazione diverso, infatti alla prima esecuzione scarica un nuovo modello di generazione, questa volta suddiviso in ben 8 blocchi, un paio molto grandi (circa 3 GB ciascuno) e gli altri di dimensioni molto più ridotte, per un totale decompresso che dovrebbe comunque rimanere sempre intorno agli 8 GB. Anche con la &lt;a href=&#34;https://openfiber.it/media/news/differenza-fttc-e-ftth/&#34;&gt;fibra FFTH&lt;/a&gt; ci è voluta una buona mezz&amp;rsquo;oretta per concludere il download del modello.&lt;/p&gt;&#xA;&lt;p&gt;&lt;img src=&#34;https://melabit.com/img/2023-03-06-fai-sbocciare-la-tua-creativita-diffusionbee-per-generare-immagini-sul-mac/model-hq-1.png&#34; alt=&#34;&#34;&gt;&#xA;&lt;img src=&#34;https://melabit.com/img/2023-03-06-fai-sbocciare-la-tua-creativita-diffusionbee-per-generare-immagini-sul-mac/model-hq-2.png&#34; alt=&#34;&#34;&gt;&#xA;&lt;img src=&#34;https://melabit.com/img/2023-03-06-fai-sbocciare-la-tua-creativita-diffusionbee-per-generare-immagini-sul-mac/model-hq-3.png&#34; alt=&#34;&#34;&gt;&#xA;&lt;img src=&#34;https://melabit.com/img/2023-03-06-fai-sbocciare-la-tua-creativita-diffusionbee-per-generare-immagini-sul-mac/model-hq-4.png&#34; alt=&#34;&#34;&gt;&lt;/p&gt;&#xA;&lt;p&gt;Come messo bene in evidenza nella &lt;a href=&#34;https://diffusionbee.com/download&#34;&gt;pagina di download&lt;/a&gt; di DiffusionBee, La velocità di generazione delle immagini della versione HQ è apprezzabilmente minore di quella a qualità normale, mentre ho qualche dubbio  sulla migliore qualità delle immagini prodotte, guardate le immagini qui sotto e giudicate da soli. Non mi pare quindi che valga tanto la pena usare la versione HQ al posto di quella normale, molto più veloce.&lt;/p&gt;&#xA;&lt;p&gt;&lt;img src=&#34;https://melabit.com/img/2023-03-06-fai-sbocciare-la-tua-creativita-diffusionbee-per-generare-immagini-sul-mac/blonde-hq.png&#34; alt=&#34;&#34;&gt;&#xA;&lt;img src=&#34;https://melabit.com/img/2023-03-06-fai-sbocciare-la-tua-creativita-diffusionbee-per-generare-immagini-sul-mac/buildings-hq.png&#34; alt=&#34;&#34;&gt;&lt;/p&gt;&#xA;&lt;p&gt;In ogni caso, una volta scaricati i due modelli distinti di generazione delle immagini, passare dalla versione a qualità normale a quella HQ (o viceversa) di DiffusionBee è questione di pochi attimi: basta aprire il file &lt;code&gt;dmg&lt;/code&gt; relativo alla versione da installare e trascinare l&amp;rsquo;icona del programma nella cartella &lt;code&gt;Applicazioni&lt;/code&gt;, sostituendola a quella già installata. Tutte le configurazioni, i modelli e la storia di uso del programma rimangono sempre disponibili, indipendentemente dalla versione usata.&lt;/p&gt;&#xA;&lt;p&gt;Volendo si potrebbero rinominare le due versioni di DiffusionBee in modo diverso, tenendole così permanentemente installate in &lt;code&gt;Applicazioni&lt;/code&gt;. Io non ho provato a farlo e non garantisco che non creino problemi, soprattutto se si prova ad usarle in contemporanea.&lt;/p&gt;&#xA;&lt;h4 id=&#34;se-vogliamo-disinstallarlo&#34;&gt;Se vogliamo disinstallarlo&lt;/h4&gt;&#xA;&lt;p&gt;E se alla fine ci stufiamo e vogliamo disinstallare DiffusionBee? Cancellare il solo programma non basta, e non basta nemmeno usare &lt;a href=&#34;https://freemacsoft.net/appcleaner/&#34;&gt;AppCleaner&lt;/a&gt; (o simili) per cancellare i file di supporto, come è normale fare con le altre applicazioni. Perché quello che è davvero importante rimuovere sono i modelli, che occupano almeno 8 GB ciascuno, ma che non vengono individuati da AppCleaner (e, ci scommetterei, nemmeno dalle altre applicazioni di disinstallazione per macOS).&lt;/p&gt;&#xA;&lt;img src=&#34;https://melabit.com/img/2023-03-06-fai-sbocciare-la-tua-creativita-diffusionbee-per-generare-immagini-sul-mac/diffusionbee-uninstallation.png&#34; alt=&#34;&#34;&gt;&lt;p&gt;AppCleaner non riesce a trovare questi modelli perché non si trovano, come si aspetta, in una cartella della &lt;code&gt;Libreria&lt;/code&gt; dell&amp;rsquo;utente, ma in una directory nascosta della &lt;code&gt;Home&lt;/code&gt; dell&amp;rsquo;utente, denominata, con pochissima fantasia, &lt;code&gt;.diffusionbee&lt;/code&gt;.&lt;/p&gt;&#xA;&lt;img src=&#34;https://melabit.com/img/2023-03-06-fai-sbocciare-la-tua-creativita-diffusionbee-per-generare-immagini-sul-mac/diffusionbee-model-directory-1.png&#34; alt=&#34;&#34;&gt;&lt;p&gt;La mia contiene in questo momento 12 GB di dati, che sono 4 GB meno di quanto mi sarei aspettato, evidentemente i due modelli hanno delle parti in comune.&lt;/p&gt;&#xA;&lt;img src=&#34;https://melabit.com/img/2023-03-06-fai-sbocciare-la-tua-creativita-diffusionbee-per-generare-immagini-sul-mac/diffusionbee-model-directory-2.png&#34; alt=&#34;&#34;&gt;&lt;p&gt;Volendo disinstallare DiffusionBee, la procedura corretta è quindi:&lt;/p&gt;&#xA;&lt;ul&gt;&#xA;&lt;li&gt;&#xA;&lt;p&gt;disinstallare l&amp;rsquo;applicazione e i file di supporto con AppCleaner o simili (ma chi sa usare il Terminale può cancellare a mano le cartelle che contengono i file di supporto);&lt;/p&gt;&#xA;&lt;/li&gt;&#xA;&lt;li&gt;&#xA;&lt;p&gt;aprire il Terminale ed eseguire il comando&lt;/p&gt;&#xA;&lt;/li&gt;&#xA;&lt;/ul&gt;&#xA;&lt;pre tabindex=&#34;0&#34;&gt;&lt;code&gt;% rm -r ~/.diffusionbee&#xA;&lt;/code&gt;&lt;/pre&gt;&lt;p&gt;dove il simbolo del &lt;code&gt;%&lt;/code&gt; rappresenta il &lt;em&gt;prompt&lt;/em&gt; del Terminale e non fa parte del comando (da notare che il &lt;code&gt;%&lt;/code&gt; è il prompt di default della shell &lt;code&gt;zsh&lt;/code&gt; utilizzata dalle versioni più recenti di macOS, in precedenza la shell di default era &lt;code&gt;bash&lt;/code&gt; e il prompt era rappresentato dal simbolo del &lt;code&gt;$&lt;/code&gt;).&lt;/p&gt;&#xA;&lt;h4 id=&#34;conclusioni&#34;&gt;Conclusioni&lt;/h4&gt;&#xA;&lt;p&gt;DiffusionBee è un bel giocattolo che, sfruttando le tecniche più avanzate di intelligenza artificiale, può generare immagini che vanno dall&amp;rsquo;orrido all&amp;rsquo;interessante sul proprio Mac con processore M1/M2. È possibile che DiffusionBee funzioni anche su un Mac Intel ma francamente, visto il tempo che impiega nei casi più complessi su un Mac M1, dubito che possa farlo in modo sufficientemente veloce da essere davvero utilizzabile.&lt;/p&gt;&#xA;&lt;p&gt;È chiaro però che DiffusionBee è più che altro un bel giocattolo, se si vogliono davvero mettere le mani in questi sistemi basati sull&amp;rsquo;intelligena artificiale, la cosa migliore da fare è lavorare direttamente con il codice sorgente, quasi sempre in Python, magari utilizzando &lt;a href=&#34;https://colab.research.google.com/&#34;&gt;Google Colab&lt;/a&gt; come piattaforma di sviluppo.&#xA;s&#xA;Le guide introduttive non mancano, basta fare un giro su Google per trovare di tutto e di più. Come ad esempio questa guida, &lt;a href=&#34;https://keras.io/guides/keras_cv/generate_images_with_stable_diffusion/&#34;&gt;High-performance image generation using Stable Diffusion in KerasCV&lt;/a&gt; che, a differenza di tante altre, funziona al primo colpo.&lt;/p&gt;&#xA;&lt;p&gt;In ogni caso, che sia con DiffusionBee o con Python, buon divertimento!&lt;/p&gt;&#xA;&lt;div class=&#34;footnotes&#34; role=&#34;doc-endnotes&#34;&gt;&#xA;&lt;hr&gt;&#xA;&lt;ol&gt;&#xA;&lt;li id=&#34;fn:1&#34;&gt;&#xA;&lt;p&gt;Sarebbe interessante verificare cosa succede con &lt;a href=&#34;https://github.com/Stability-AI/stablediffusion&#34;&gt;Stable Diffusion&lt;/a&gt;, che è il il modello di generazione di immagini su cui si basa DiffusionBee.&amp;#160;&lt;a href=&#34;#fnref:1&#34; class=&#34;footnote-backref&#34; role=&#34;doc-backlink&#34;&gt;&amp;#x21a9;&amp;#xfe0e;&lt;/a&gt;&lt;/p&gt;&#xA;&lt;/li&gt;&#xA;&lt;/ol&gt;&#xA;&lt;/div&gt;&#xA;</description>
    </item>
    <item>
      <title>L&#39;anniversario della presentazione dell&#39;iPad secondo ChatGPT</title>
      <link>https://melabit.com/it/2023/01/29/l-anniversario-della-presentazione-dell-ipad-secondo-chatgpt/</link>
      <pubDate>Sun, 29 Jan 2023 06:00:00 +0000</pubDate>
      <guid>https://melabit.com/it/2023/01/29/l-anniversario-della-presentazione-dell-ipad-secondo-chatgpt/</guid>
      <description>&lt;p&gt;Ho colto al volo l&amp;rsquo;occasione dell&amp;rsquo;anniversario della &lt;a href=&#34;https://www.youtube.com/watch?v=OBhYxj2SvRI&#34;&gt;presentazione dell&amp;rsquo;iPad&lt;/a&gt; per far scrivere a &lt;a href=&#34;https://chat.openai.com&#34;&gt;ChatGPT&lt;/a&gt; un post sull&amp;rsquo;argomento. Io mi sono limitato a qualche notarella tecnica e a un breve commento finale.&lt;/p&gt;&#xA;&lt;hr style = &#34;border: none; &#xA;            border-top: 3px double #333; &#xA;            color: #333; &#xA;            overflow: visible; &#xA;            height: 5px; &#xA;            width: 50%; &#xA;            margin-left: auto; &#xA;            margin-right: auto;&#34;&#xA;&gt;&#xA;&#xA;&lt;p&gt;&lt;strong&gt;Domanda&lt;/strong&gt;: Scrivi un post per un blog in tono tecnico sul recente anniversario della presentazione dell&amp;rsquo;iPad.&lt;/p&gt;&#xA;&lt;p&gt;&lt;strong&gt;Risposta&lt;/strong&gt;: &lt;em&gt;Il 27 gennaio 2010, Apple Inc. ha presentato il primo iPad, un tablet computer che utilizza un display multi-touch da 9,7 pollici e si basa sul sistema operativo iOS. Il dispositivo era alimentato dal chip A4 di Apple, che presentava un CPU Cortex-A8 da 1 GHz e una GPU PowerVR SGX535, fornendo all&amp;rsquo;iPad una notevole potenza computazionale per l&amp;rsquo;epoca. Il dispositivo è stato inizialmente rilasciato in tre capacità di archiviazione (16 GB, 32 GB e 64 GB) e con un prezzo di partenza di 499 dollari.&lt;/em&gt;&lt;/p&gt;&#xA;&lt;p&gt;&lt;em&gt;Al momento del lancio, l&amp;rsquo;iPad ha ricevuto reazioni miste dalla comunità tecnologica, con alcuni che lodavano il suo potenziale come dispositivo rivoluzionario per la navigazione web, l&amp;rsquo;email, le foto e la visione di video, mentre altri lo respingevano come un &amp;ldquo;gigantesco iPhone&amp;rdquo; con un&amp;rsquo;appeal limitato. Tuttavia, questi dubbi sono stati presto dissipati in quanto l&amp;rsquo;iPad è diventato rapidamente un dispositivo popolare, con Apple che ha venduto oltre 15 milioni di unità nei primi nove mesi dal lancio.&lt;/em&gt;&#xA;&lt;em&gt;Uno dei fattori chiave che ha contribuito al successo dell&amp;rsquo;iPad è stata la sua capacità di eseguire una vasta gamma di app, grazie al suo hardware potente e al sistema operativo iOS. Ciò ha permesso di eseguire una varietà di compiti sul dispositivo, come la navigazione web, l&amp;rsquo;invio di email, la modifica di documenti, la visione di video e i giochi. Il display grande dell&amp;rsquo;iPad lo ha inoltre reso ideale per la fruizione di media, soprattutto per la lettura di libri, riviste e giornali.&lt;/em&gt;&lt;/p&gt;&#xA;&lt;p&gt;&lt;em&gt;L&amp;rsquo;interfaccia touch dell&amp;rsquo;iPad, il suo design semplice e l&amp;rsquo;accessibilità hanno anche svolto un ruolo significativo nel suo successo. Ciò ha reso il dispositivo facile da usare per persone di tutte le età e livelli di abilità, espandendo così il mercato dei tablet, che era stato precedentemente limitato a nicchie come le imprese e i designer.&lt;/em&gt;&lt;/p&gt;&#xA;&lt;p&gt;&lt;em&gt;La presentazione dell&amp;rsquo;iPad ha anche avuto un impatto significativo sul mercato dei tablet nel suo insieme. Prima dell&amp;rsquo;iPad, i dispositivi tablet venivano principalmente utilizzati per compiti specifici come l&amp;rsquo;inserimento di dati e la progettazione grafica. Tuttavia, il successo dell&amp;rsquo;iPad ha stabilito il tablet come un dispositivo a scopo generale, adatto a una vasta gamma di compiti. Ciò ha portato allo sviluppo di una var&lt;/em&gt;&lt;/p&gt;&#xA;&lt;p&gt;Come potete vedere la risposta si interrompe all&amp;rsquo;improvviso, ci sarà forse un limite tecnico sulla lunghezza delle risposte ma non è chiarissimo, visto che il testo contiene 366 parole  e 2267 caratteri.&#xA;Per verificare che non sia stato un problema tecnico (ChatGPT in questi giorni è ai limiti della sua capacità) ho anche provato a rigenerare il testo, ma anche questa volta il testo si interrompe a metà, dopo 358 parole e 2280 caratteri. In ogni caso la risposta è praticamente identica e ve la risparmio.&lt;/p&gt;&#xA;&lt;hr style = &#34;border: none; &#xA;            border-top: 3px double #333; &#xA;            color: #333; &#xA;            overflow: visible; &#xA;            height: 5px; &#xA;            width: 50%; &#xA;            margin-left: auto; &#xA;            margin-right: auto;&#34;&#xA;&gt;&#xA;&#xA;&lt;p&gt;Facendo scrivere a ChatGPT un post equivalente in inglese il risultato è, come prevedibile, praticamente uguale al testo in italiano, probabilmente perché ChatGPT può leggere e scrivere in qualunque lingua (o quasi) ma &lt;em&gt;pensa&lt;/em&gt; sempre e solo in inglese.&lt;/p&gt;&#xA;&lt;img src=&#34;https://melabit.com/img/2023-01-29-l-anniversario-della-presentazione-dell-ipad-secondo-chatgpt/chatgpt-ipad.jpg&#34; alt=&#34;&#34;&gt;&lt;hr style = &#34;border: none; &#xA;            border-top: 3px double #333; &#xA;            color: #333; &#xA;            overflow: visible; &#xA;            height: 5px; &#xA;            width: 50%; &#xA;            margin-left: auto; &#xA;            margin-right: auto;&#34;&#xA;&gt;&#xA;&#xA;&lt;p&gt;Che dire del risultato? Francamente mi sembra più interessante leggere la lista della spesa, non c&amp;rsquo;è nessun calore, è tutto piatto e senza vita come un comunicato stampa. Il testo scritto da ChatGPT è un semplice elenco di fatti, una rielaborazione piatta di pagine e pagine di notizie presenti sul web, senza che questo elenco diventi una storia degna di essere letta. Un umano potrebbe fare sicuramente di meglio.&lt;/p&gt;&#xA;&lt;p&gt;Il problema con ChatGPT è che ce l&amp;rsquo;hanno &lt;em&gt;venduto&lt;/em&gt; come la soluzione per tutto, sostituito dello scrittore, terrore degli insegnanti (e manna per gli insegnati), sistema di sviluppo, motore di ricerca intelligente, manca solo che risolva il problema della fame nel mondo e siamo a posto.&lt;/p&gt;&#xA;&lt;p&gt;Invece ChatGPT è solo un software con un&amp;rsquo;ottima memoria, un software che ha letto e ricorda praticamente tutto lo scibile umano, un software che, quando risponde alle nostre domande, va a prendere una cosa da qui e una da lì, senza avere la minima idea di cosa significhi. ChatGPT è un perfetto robot statistico, nulla di più.&lt;/p&gt;&#xA;&lt;p&gt;Se gli si fanno fare cose adatte a &lt;em&gt;lui&lt;/em&gt;, ChatGPT è eccezionale, basta solo non chiedergli di essere creativo, non fa per lui. Direi che, per ora, noi scrittori in erba possiamo dormire sonni tranquilli.&lt;/p&gt;&#xA;</description>
    </item>
  </channel>
</rss>
