Quando sette anni fa un gruppetto di fomentati nella Silicon Valley diede vita a una fondazione senza scopo di lucro chiamata “OpenAI Inc. 501(c)(3) Public Charity” con lo scopo di sviluppare un’Intelligenza Artificiale Generale (da qui in poi “AGI”) al servizio dell’umanità, la notizia forse passò inosservata agli occhi dei più. Ad alcuni appassionati di fantascienza, invece, forse sembrò di trovarsi in un prequel di una saga asimoviana, se non catapultati nel futuro. Ad avviare la fondazione furono Sam Altman, Brockman, Elon Musk, Reid Hoffman, Jessica Livingston, Peter Thiel, Amazon Web Services, Infosys e YC Research. Non parliamo di founder o azionisti, ma di donatori: questi soggetti non sono azionisti di OpenAI Inc., non la controllano in alcun modo e non hanno diritto a ricevere i profitti della fondazione(if any). Hanno creato un’entità giuridica che vive di vita propria, governata da un board che si autonomina e si autoperpetua secondo regole statutarie ben determinate. Il board persegue un obiettivo specifico che è sostanzialmente quello di salvare l’umanità dall’Intelligenza Artificiale:
Our mission is to ensure that artificial general intelligence—AI systems that are generally smarter than humans—benefits all of humanity.
Alla base di questa scelta c’erano da una parte la convinzione che un giorno l’umanità, con la giusta combinazione di risorse finanziarie, ingegno e sviluppi tecnologici, sarebbe stata in grado di creare un’AGI, dall’altra la preoccupazione che un’AGI nelle mani sbagliate (una grande e avida società o un governo autocratico) avrebbe potuto rappresentare una minaccia per l’umanità.
OpenAI Inc., dotata delle giuste risorse finanziarie e di una totale indipendenza da vincoli finanziari, avrebbe potuto perseguire il suo scopo sviluppando un’AGI addomesticata. Ho chiesto a ChatGPT la differenza tra una AGI e un’AI comune come quelle in circolazione adesso (la risposta è abbastanza accurata per il nostro scopo):
Dal 2015 OpenAI ne ha fatta di strada… Per fare questa strada, però, ha finito col seguire i mangoddi.
Quasi non-profit
Dopo pochi anni le donazioni cominciavano a non essere più sufficienti per tenere il passo con gli ingenti fabbisogni finanziari necessari a supportare la continua crescita della capacità di calcolo per i training dei modelli AI. Quando poi nel 2018 Elon Musk abbandonò il progetto dimettendosi dal board e sospendendo le sue donazioni, OpenAI si ritrovò sul lastrico. Il board trovò quindi un escamotage per attrarre capitali senza rinunciare alla sua natura non-profit e alla mission originale per cui era stata creata. La fondazione costituì la OpenAI Global LLC, una partnership che remunera i suoi limited partner con massimo 100 volte il loro investimento e che è controllata interamente da un general partner (OpenAI GP LLC), a sua volta controllato dalla OpenAI Inc. 501(c)(3) Public Charity a prescindere dalle quote di possesso.
I fondatori di OpenAI spiegarono così questo cambio di direzione:
“We want to increase our ability to raise capital while still serving our mission, and no pre-existing legal structure we know of strikes the right balance. Our solution is to create OpenAI LP as a hybrid of a for-profit and nonprofit—which we are calling a “capped-profit” company.
The fundamental idea of OpenAI LP is that investors and employees can get a capped return if we succeed at our mission, which allows us to raise investment capital and attract employees with startup-like equity. (...) Returns for our first round of investors are capped at 100x their investment.”
Da quel momento in poi, inoltre, i modelli di OpenAI non vennero più divulgati rimanendo proprietà intellettuale esclusiva di OpenAI Global LLC.
Se vi sembra strano avere una fondazione non-profit che controlla una società da miliardi di dollari, pensate che oggi quasi tutte le banche italiane sono controllate da fondazioni non-profit. Intesa Sanpaolo è ad esempio controllata da Compagnia Sanpaolo che è a sua volta governata da membri del Consiglio nominati periodicamente per statuto da Comune di Torino, Comune di Genova, Regione Piemonte e Camere di Commercio varie.
Quando comprate un mobile da Ikea, ricordate che quella società è controllata da una fondazione olandese senza scopo di lucro in cui i membri della famiglia Kamprad (fondatore di Ikea) non possono avere più di 2 posti su 5.
La creazione di OpenAI Global LLC fu fondamentale per attrarre nuovi capitali e un numero maggiore di talenti che poteva essere remunerato con quote della partnership.
Fra i primi a salire a bordo in tempi non sospetti ci fu Microsoft che nel 2018 investì 1 miliardo di dollari in OpenAI Global LLC. Dopo il grande successo di ChatGPT e tutto l’hype sull’AI che ne seguì, Microsoft investì altri 10 miliardi di dollari in OpenAI arrivandone a detenere il 49%.
La partnership fu strutturata in modo molto intelligente legando OpenAI a doppio filo con Microsoft. OpenAI aveva bisogno delle risorse finanziarie, ma soprattutto dell’infrastruttura cloud di Microsoft per far girare i suoi modelli; Microsoft, d’altro canto, aveva reso i modelli di OpenAI parte integrante della propria infrastruttura cloud e – tra non molto – anche della sua suite Office. Dopo aver perso il treno di internet nei primi anni 2000 e quello degli smartphone nel primi anni ’10, con Satya Nadella al timone, Microsoft non aveva intenzione di perdere anche quello della next big think degli anni ’20. Il bello è che Microsoft, non esercitando alcun controllo su OpenAI (interamente controllata dalla non-profit a prescindere da quanti soldi possa metterci Microsoft) può tranquillamente trarre un vantaggio competitivo enorme dalla sua partnership (Azure + Office + Windows + OpenAI = influenza stradominante) senza che l’antitrust possa eccepire nulla.
Anche le migliori menti dell’AI furono attratte dalla nuova struttura. I dipendenti di OpenAI hanno un salario mediano di 900 mila dollari (un dato insolitamente alto anche per gli standard della Silicon Valley). Secondo varie fonti, circa 300 mila dollari annui sono in cash mentre il resto in strumenti chiamati PPU (Profit Participation Unit) che danno diritto ai dipendenti di ricevere una parte degli utili di OpenAI. Insomma, una parte sostanziale della remunerazione dei dipendenti responsabili di ricercare e sviluppare nuovi modelli di AI è legata ai profitti di OpenAI.
Madre Teresa e Rupert
Quindi abbiamo Madre Teresa di Calcutta (la società non-profit) che controlla Rupert Murdoch (la società “capped profit”). Entrambi hanno l’obiettivo di sviluppare un prodotto chiamato AGI per il bene dell’umanità. Madre Teresa di Calcutta non ci capisce niente di tecnologia e mercato. Rupert Murdoch, invece, ha tutte le competenze per sviluppare questo prodotto e per svilupparlo più velocemente possibile si è messo in combutta con tutta una serie di soggetti molto interessati al profitto. Madre Teresa di Calcutta può esercitare una sorta di autorità morale e parentale su Rupert Murdoch, ma nulla più. Cosa succederebbe quindi se Rupert dovesse cominciare a prendere una deriva rispetto all’obiettivo originario anteponendo gli interessi dei suoi amici finanziatori e dei suoi dipendenti? Tutto quello che Madre Teresa di Calcutta potrebbe fare è dargli una bella sculacciata, ma niente di più… I mangoddi alla fine vincono sempre.
Questo è grosso modo quello che è successo il weekend scorso in OpenAI quando Sam Altman fu improvvisamente licenziato dal consiglio della società non-profit per comportamenti poco trasparenti. Non ci è dato sapere cosa possa aver fatto Sam Altman, ma visto l’obiettivo principale perseguito dalla società non-profit – che è quello di sviluppare ma tenere a bada l’AI – è possibile intuire che Sam Altman volesse correre troppo con lo sviluppo delle tecnologie a cui stava lavorando con il team di OpenAI. Non è una coincidenza, poi, che il licenziamento sia avvenuto a pochi giorni dal developers day in cui Sam Altman ha presentato una serie di sviluppi di OpenAI abbastanza impressionanti. Dopo il licenziamento di Altman ci sono stati cinque giorni folli che hanno portato – alla fine – alla sostituzione del board della non-profit e al rientro trionfale di Altman in OpenAI.
Ma non è la non-profit che controlla OpenAI Global LLC? Sì, ma i mangoddi vincono sempre, anche nelle non-profit. E alla fine Madre Teresa di Calcutta può anche sculacciare Rupert Murdoch per essersi avvicinato troppo allo sterco del diavolo, ma Rupert Murdoch poi continua a fare quello che vuole.
Un tranquillo weekend di OpenAI
Venerdì 17 novembre il consiglio di OpenAI invita Sam Altman a una riunione del board per annunciargli le dimissioni e l’espulsione dal board. Allo stesso tempo viene rimosso anche il presidente. Questa era la composizione del board di OpenAI (la non-profit). Le decisioni sulla rimozione e la nomina di altri membri vengono prese con maggioranza semplice.
Greg Brockman (cofounder, board chairman and president) – dipendenteSam Altman (CEO) – dipendentellya Sutskever (cofounder e chief scientist) – dipendente
Adam D’Angelo (cofounder e CEO di Quora) – esterno
Helen Toner (director al Georgetown's Center for Security and Emerging Technology) – esterno
Tasha McCauley (CEO della società di modellazione 3D di città GeoSim Systems) – esterno
Dopo il colpo di mano rimane quindi solamente Ilya Sutskever come dipendente della società, il quale probabilmente deve aver congiurato con gli altri membri per far fuori Altman e Brockman. Nel frattempo Emmett Shear (ex CEO di Twitch) viene nominato come CEO ad interim.
Immaginate di essere Satya Nadella, di aver investito 13 miliardi in OpenAI, di aver messo OpenAI alla base della vostra strategia futura e di aver appreso del licenziamento del CEO di OpenAI da Twitter. Già, per quanti soldi avesse potuto mettere, Microsoft non aveva nessun diritto di governance in OpenAI. Non solo non poteva opporsi alla decisione, ma il board non era neanche tenuto ad informarla di quello che aveva fatto e stava facendo. Madre Teresa di Calcutta era l’unica ad avere il diritto di sculacciare Rupert Murdoch e inizialmente Satya Nadella passò per una sprovveduto che aveva messo 13 miliardi di dollari in una società senza neanche poter dire una parola sul licenziamento del CEO.
Nei due giorni che seguirono, i dipendenti si rivoltarono in massa contro la decisione del board. Ricordate quella parte sul pacchetto retributivo di quei dipendenti molto legati a strumenti simili a stock option? Circolava da un po’ di tempo la notizia di una possibile transazione in cui alcuni fondi avrebbero comprato quelle stock option versando fino a 1 miliardo di dollari (mediamente un milione di dollari a dipendente). Con il licenziamento di Altman, quei soldi erano a rischio. Così come erano a rischio quelli di Microsoft. Per tutta risposta Microsoft assume Sam Altman, Greg Brockman e potenzialmente tutto il team di OpenAI:
Se Sam Altman, Greg Brockman e tutto il team di OpenAI fossero stati assunti da Meta, Amazon o chissà chi altro, Microsoft avrebbe buttato 13 miliardi investimenti ritrovandosi con una scatola vuota e dicendo addio al vantaggio competitivo che stava sempre più costruendo sull’AI. Infatti, c’era già chi aveva annunciato pubblicamente che era disposto ad assumere tutti i dipendenti di OpenAI come il CEO di Salesforce:
(Cash & equity OTE significa che Salesforce avrebbe pagato ai dipendenti di OpenAI non solo il loro fisso in cash ma anche il variabile in azioni Salesforce quotate: un’ottima offerta considerando che i PPU di OpenAI erano strumenti illiquidi).
OpenAI nel giro di due giorni ha rischiato di ritrovarsi senza più dipendenti e senza una leadership. La stessa società che due giorni prima valeva 86 miliardi di dollari. Madre Teresa di Calcutta avrà pure esercitato il diritto di sculacciare Rupert Murdoch, ma ora Rupert Murdoch era scappato di casa con un sacco di soldi e rischiava di non rivederlo mai più…
Il ritorno di del CEO prodigo
Alla fine, sotto un’evidente pressione e non riuscendo neanche a dimostrare cosa avesse spinto il board a cacciare Sam Altman, il board rassegnò le dimissioni e venne costituito un nuovo board a quattro con Altman come CEO:
Sam Altman (CEO) – dipendente
Bret Taylor (ex CTO di Facebook, presidente) – esterno
Adam D’Angelo (cofounder e CEO di Quora) – esterno
Larry Summers (devo dire chi è?) – esterno
Del vecchio board rimane solo Adam D’Angelo, mentre vanno via tutti gli altri incluso llya Sutskever, il chief scientist che inizialmente aveva appoggiato l’azione del board.
Come avviene tecnicamente la nomina di un nuovo board in una non-profit come OpenAI Inc. 501(c)(3) Public Charity? Purtroppo, lo statuto non è pubblico. Solitamente nello statuto fondativo della non-profit vengono definiti alcuni requisiti professionali e di onorabilità che devono avere i membri del board. Per il resto si possono affidare diritti di nomina o ad autorità esterne oppure al board stesso (come nella maggior parte dei casi). In questo caso, è probabile che – dopo aver raggiunto un accordo con Sam Altman – tutti i membri del board si siano dimessi ad eccezione di Adam D’Angelo lasciando a quest’ultimo “l’onore” di nominare gli altri tre membri, incluso Sam Altman come CEO. Un board molto ristretto e senza neanche una donna per sorvegliare una delle tecnologie più importanti dei prossimi anni. Già, perché nonostante tutto quello che è successo, sebbene i mangoddi vincano sempre (come questa vicenda ha ancora dimostrato), lo statuto di OpenAI Inc. resta sempre quello e il compito del board è perseguire il fine sociale della non-profit:
Our mission is to ensure that artificial general intelligence—AI systems that are generally smarter than humans—benefits all of humanity.
Speriamo almeno che l’attuale board chiami altri membri nello spirito di inserire un po’ più di diversity per farsi aiutare in questa mission non proprio banale.
Tirando le somme
I mangoddi vincono sempre (l’abbiamo già detto, vero?) – Bello lo statuto di OpenAI Inc. 501(c)(3) Public Charity. Molto smart, lodevole e lungimirante l’intento di autoregolamentare lo sviluppo di una AGI a beneficio dell’umanità, ma, quando servono miliardi di dollari per il training dei modelli e menti costosissime per sviluppare quei modelli, ti servono in mangoddi e i mangoddi controllano persone e tecnologie più degli statuti. Formalmente i dipendenti di OpenAI rispondono al board e il board risponde alla mission della public charity. Questo meccanismo funziona molto bene in due circostanze: 1) quando i soldi che riceve la public charity vengono dai membri del board (era il caso di OpenAI ante 2018); 2) quando i soldi che riceve la public charity dipendono dalle donazioni che il pubblico fa alla fondazione nell’interesse della missione (se sei Save The Children devi mostrare al pubblico che agisci bene nell’interesse della missione, altrimenti le donazioni si prosciugano). Nel caso di OpenAI i membri del board non versavano nulla a OpenAI e i soldi di investitori esterni come Microsoft erano tantissimi, così tanti da rendere irrilevanti eventuali donazioni esterne che potevano arrivare da donatori interessati alla causa. Di qui, la guerra civile in seno a OpenAI dello scorso venerdì 17…
Il board è stato accusato dai dipendenti e dagli investitori di aver quasi distrutto OpenAI con il licenziamento avventato di Sam Altman. La verità è che la distruzione di OpenAI può essere assolutamente compatibile con la mission di OpenAI Inc. 501(c)(3) Public Charity. Se i membri del board avessero avuto il sospetto fondato che nel cassetto di OpenAI LLC ci fosse Skynet o qualcosa di simile, allora il board, in ossequio alla mission della fondazione (nonché al bene dell’umanità), avrebbe avuto il dovere di distruggere OpenAI LLC.
Il board non ha dato spiegazioni convincenti su quali fossero le reticenze di Sam Altman e i sospetti che avevano. Forse non lo sapremo mai.
Il problema è che – anche ammettendo che Sam Altman stesse davvero tramando per sviluppare un’AGI che non fosse completamente a beneficio dell’umanità – il board di OpenAI non sarebbe riuscito affatto nell’intento di fermare Sam Altman, che avrebbe potuto tranquillamente fare armi e bagagli, andare da Microsoft e portarsi dietro tutto il team di sviluppo. A quel punto OpenAI sarebbe diventata una scatola vuota e il suo team avrebbe continuato a sviluppare l’AGI con ancora meno supervisione nell’ambito dei team di sviluppo Microsoft. Insomma, anche a voler accreditare l’ipotesi che Sam Altman stesse avesse nel cassetto un’AGI in gradi di annientare l’umanità, forse il board avrebbe dovuto agire più strategicamente per tenerlo a bada invece che annunciarne le dimissioni con una press release.
Se tra voi lettori c’è qualcuno con un minimo di esperienza in transazioni M&A penso già di vedere la sua faccia sconvolta chiedersi: ma quindi Sam Altman e i dipendenti non sono soggetti ad alcun non-compete (accordo di non andare a lavorare dalla concorrenza per un po’ di anni)? Quindi Microsoft ha investito in OpenAI senza firmare alcun non-solicitation (accordo che le impedisce di assumere risorse dalla società in cui hai investito)? Microsoft ha messo 13 miliardi di dollari in OpenAI senza poter dire una parola sulla governance, al punto tale che, se il board della fondazione avesse voluto far saltare per aria la società, avrebbe potuto farlo liberamente? Penso proprio che le cose stessero così. Nel mondo delle start-up i cavilli sulla governance vengono spesso declassati a de minimis di cui non preoccuparsi. Conta molto di più la sostanza perché spesso ci sono incentivi che contano di più dei contratti per allineare l’interesse di una società a quello dei suoi investitori. A volte i rapporti personali contano molto di più delle clausole (qualcuno si ricorda di FTX?).
Suppongo che, nel caso di OpenAI, Microsoft debba aver pensato che la personalità di Sam Altman e il forte fabbisogno di potenza di calcolo da parte di OpenAI fossero abbastanza per garantirsi un totale allineamento di interessi di OpenAI a quelli del suo principale investitore. Leggendo lo sviluppo dei fatti dell’ultimo weekend, avremmo forse pensato che era stato davvero sciocco per Microsoft investire 13 miliardi dollari in una non-profit a una valutazione stellare. L’epilogo della vicenda ha invece reso giustizia a Microsoft che alla fine ha ottenuto esattamente quello che ha sempre voluto da OpenAI: un team fortissimo focalizzato su una delle migliori tecnologie sull’AI fortemente dipendente da mamma Microsoft senza farne formalmente parte.
Come qualcuno ha scritto prima di me, questa vicenda paradossalmente dimostra come le persone siano più importanti dei dati.
Come funziona una macchina da soldi?
Per capire meglio questa vicenda è necessario comprendere un minimo il funzionamento di un Large Language Model, cioè la tecnologia alla base dell’intelligenza artificiale che tutti ultimamente stiamo usando. I Large Language Model (cioè i modelli che servono a far funzionare le attuali intelligenze artificiali generative) funzionano pressappoco così: ci sono delle reti neurali che analizzano e fanno girare delle inferenze su grosse porzioni di dati prese da internet (200-400 terabyte). Questo tipo di lavoro richiede 3-4 mesi e una potenza di calcolo enorme che coinvolge il lavoro di 60.000 GPU che lavorano in parallelo consumando giga e giga di elettricità. Un processo del genere richiede mesi e può costare 50-100 milioni di dollari.
Lascio a ChatGPT il compito di spiegare come funziona la rete neurale dell’intelligenza artificiale da cui deriva:
In una rete neurale un neurone è un'unità di base che riceve, elabora e trasmette informazioni. È simile a un neurone biologico nel senso che riceve input, li elabora e produce un output. Ogni neurone artificiale riceve input da altri neuroni o dalla sorgente di dati esterna. Questi input sono generalmente valori numerici. Ogni input è associato a un "peso", che rappresenta l'importanza o l'influenza di quell'input sul neurone. Inoltre, c'è un termine aggiuntivo chiamato "bias" che aiuta a regolare l'output del neurone. I valori di input, pesati e sommati, vengono poi passati attraverso una funzione di attivazione. Questa funzione determina se e quanto il neurone "si attiva", cioè quanto fortemente deve inviare il segnale ai neuroni successivi. In una rete neurale, migliaia o anche milioni di questi neuroni artificiali sono interconnessi in modelli complessi. La rete "apprende" regolando i pesi e i bias di questi neuroni durante il processo di training, in modo che possa elaborare efficacemente i dati di input e produrre output accurati.
Quello che avviene durante una sessione di training è che miliardi di neuroni provano in parallelo a indovinare la prossima parola in un dato testo. Analizzando in slow motion e con la lente di ingrandimento quello che avviene in una sessione di training, nel giro di un millisecondo, un neurone prova a indovinare la parola successiva in questa frase: “il cielo è”. Se sceglie la parola “rosmarino”, altri neuroni confronteranno il risultato con il dataset utilizzato per il training e classificheranno quel neurone come molto scarso a prevedere la parola successiva in quel contesto (gli assegneranno un peso bassissimo). Altri neuroni sceglieranno la parola “blu” oppure “plumbeo” e gli altri neuroni gli assegneranno a loro volta un peso più alto verificando che nel dataset utilizzato per il training quel termine ricorre molto spesso dopo la parole “cielo”. Qui parliamo di parole, ma per il modello ogni parola viene convertita in un numero: il modello non sa in realtà né cosa sia il cielo, né cosa sia il blu. Il risultato di questo processo è una sorta di file “ZIP” dell’intero internet in cui miliardi e miliardi di termini vengono messi in relazione fra loro attraverso un modello matematico.
Ciò che è affascinante e inquietante al tempo stesso è che, sebbene il risultato di un processo di training del genere sia un artefatto umano, in realtà si tratta di un artefatto così complesso – con milioni o miliardi di parametri (pesi e bias dei neuroni) – che è difficile comprendere esattamente come il modello prenda decisioni specifiche o perché generi una determinata risposta. In altre parole, i modelli sono spesso considerati "black box". Sappiamo costruirle, sappiamo come funzionano, ma non sappiamo che cosa avvenga esattamente al loro interno.
A causa della loro complessità e della varietà dei dati su cui vengono addestrati, è difficile prevedere come un LLM risponderà a certe domande o stimoli.
Come ti trasformo 100 milioni in 86 miliardi
In una società che produce scarpe, il valore della società è nel suo marchio (registrato), nei suoi stabilimenti industriali (tangibili), nei processi industriali (brevettati) e nell’insieme organizzato di tutti i fattori produttivi. In una società come ChatGPT, gli 86 miliardi di dollari di valore sono in un modello uscito da una sessione di training costata 100 milioni di dollari (potenza di calcolo per addestrare il modello). Quello che trasforma quei 100 milioni di dollari in 86 miliardi è la modalità di training utilizzata e il modello matematico con cui si riesce a trasformare il file che esce dal processo di training in una sequenza di parole di un modello apparentemente intelligente. Dal momento che è abbastanza misterioso il processo con cui tutto questo avviene, un modello è di per sé difficilmente brevettabile. Non tutti poi possono provare a imitarti perché non tutti hanno accesso a 100 milioni di dollari e 10.000 GPU prodotte da NVIDIA (che vi metterà in una lista d’attesa lunga qualche mese nel migliore dei casi). ChatGPT si tiene ben stretto il modello alla base di ChatGPT4 che funziona così bene, ma niente impedisce a qualcun altro di provare a ricreare lo stesso modello partendo da un’altra sessione di training. Quello che fa la differenza è come prepari i dati per il training e le istruzioni che dai al modello per il training. In altre parole, quello che fa la differenza sono le persone che sanno come è stato allenato il modello.
Se gli scienziati di OpenAI fossero stati assunti in massa da Microsoft, avrebbero potuto ricreare nel giro di un anno ChatGPT4 (in realtà, per un accordo commerciale, Microsoft ha già accesso a quel modello) o ChatGPT5. E siccome ChatGPT5 sarebbe stato un artefatto incomprensibile, nessuno avrebbe mai potuto accusare Microsoft o gli ex dipendenti di ChatGPT di aver rubato la proprietà intellettuale di OpenAI.
Ecco perché le persone – in questo caso – sono molto più importanti dei contratti.
Darsi una regolata
Tornando alla vicenda OpenAI, credo sia ormai evidente come un’autoregolamentazione attraverso il meccanismo della non-profit sia ormai un meccanismo spuntato per tenere a bada e sorvegliare gli sviluppi di un’AGI. C’è davvero bisogno di sorveglianza? Io credo di sì e se una dozzina fra le menti più brillanti e lungimiranti del pianeta 8 anni fa decisero di spendere un miliardo di dollari per questo scopo, credo proprio che sia uno scopo degno di nota. Quando i social network si trasformarono rapidamente da giochino da nerd a strumento di influenza di massa, si pensò che l’autoregolamentazione avrebbe funzionato (e lì parlavamo di aziende “for profit”). Così non è stato. Con l’AI la partita in gioco è troppo grande per fare errori di sottovalutazione.
Se volete approfondire questi temi, la settimana scorsa Andrej Karpathy ha pubblicato un video divulgativo molto ben fatto per spiegare il funzionamento di un modello LLM. Senza quel video, la mia comprensione degli eventi di OpenAI da un punto di vista sostanziale sarebbe stata molto più limitata. Difficilmente potrete diventare esperti di intelligenza artificiale, ma nei prossimi mesi e anni sarà fondamentale capire le dinamiche che animano questo settore. Il mio consiglio è quindi quello di spendere 1 ora per guardare il video di Andrej e continuare a cercare contenuti capire come si trasformerà il mondo intorno a noi. Lo smartphone che tenete in mano potrebbe tra non molto diventare un Commodore 64 al confronto delle tecnologie che si stanno sviluppando.
Anche per oggi è tutto. Grazie per i calorosi commenti con cui avete accolto il ritorno di questa newsletter. Uno speciale ringraziamento a Daniela Bollini che è tornata a rendere questi testi più professionali anche dopo mesi di latitanza del sottoscritto.