Grandi cambiamenti stanno avvenendo in OpenAI. Mercoledì la società ha annunciato che lo sarebbe stato spegnendo la loro app per la creazione di video AI Sora solo un paio di mesi dopo il suo lancio. Nel mese di ottobre, OpenAI ha completato una massiccia ristrutturazione della sua organizzazione che scuote le fondamenta stesse su cui è stata costruita.
OpenAI, che alimenta ChatGPT, tra gli altri prodotti AI, lo era originariamente fondata esclusivamente come organizzazione no-profit. Ora ha un braccio a scopo di lucro. Secondo il CEO di OpenAI Sam Altmannl’organizzazione no-profit continuerà a guidare il lavoro del settore a scopo di lucro per garantire che l’intelligenza artificiale funzioni a “beneficio di tutta l’umanità”. Inoltre, la OpenAI Foundation avrebbe un patrimonio (teoricamente) di 180 miliardi di dollari, rendendola una delle più grandi organizzazioni di beneficenza al mondo.
Catherine Bracy, fondatrice dell’organizzazione no-profit Tech Equity, ritiene che questa ristrutturazione sia un palese tentativo di liberare l’ala for-profit per agire come qualsiasi altra società di intelligenza artificiale. Sostiene che l’ala a scopo di lucro di OpenAI agirà sempre e solo a beneficio dei suoi investitori. Bracy ritiene che la OpenAI Foundation sia semplicemente un braccio glorificato e sdentato di responsabilità sociale aziendale. Abbiamo contattato OpenAI per un commento e non abbiamo ricevuto risposta.
Bracy ha parlato con Oggi, spiegato il conduttore Sean Rameswaram sulla legalità della nuova struttura di OpenAI e sulle sue preoccupazioni su come tutto ciò potrebbe risolversi. Di seguito è riportato un estratto della loro conversazione, modificato per lunghezza e chiarezza.
C’è molto di più nel podcast completo, quindi ascolta Oggi, spiegato ovunque trovi i tuoi podcast, inclusi Podcast di Apple, PandoraE Spotify.
(Divulgazione: Vox Media è uno dei numerosi editori che hanno firmato accordi di partnership con OpenAI. Il nostro reporting rimane editorialmente indipendente.)
Chattavi con Sam Altman?
Abbiamo lavorato insieme in passato e poi abbiamo perso i contatti per alcuni anni. Poi, quando stavo scrivendo un libro sul capitale di rischio, ero davvero interessato al modello no-profit dell’intelligenza artificiale aperta. Sam era stato molto esplicito nel dire che il motivo per cui avevano fondato OpenAI come organizzazione no-profit era quello di mettere la tecnologia a debita distanza dagli investitori perché sapevano che gli investitori l’avrebbero sfruttata in un modo che avrebbe reso questa tecnologia – che pensavano fosse molto pericolosa – effettivamente all’altezza di quel potenziale pericolo.
Quindi volevo parlargli del processo decisionale che sta dietro a tutto ciò. Ed è stato molto schietto nel dire che questo è il motivo esplicito per cui OpenAI è stata fondata come organizzazione no-profit. Hanno dedicato molta attenzione, capacità ed energia alla creazione di questa struttura di governance (senza scopo di lucro) che proteggerebbe la tecnologia dai capricci degli investitori, dagli imperativi (generatori di profitto) che gli investitori impongono alle società tecnologiche.
E pochi mesi dopo, ho visto che tutto crollava.
E quando hai scoperto che Open AI si stava ristrutturando e che avrebbe tentato di realizzarla in entrambe le direzioni: no-profit orientata alla missione, ma anche orientata al denaro a scopo di lucro – qual è stata la tua reazione?
Delusione. Direi che questa è stata la mia reazione iniziale. E poi la risposta secondaria è stata: Ebbene, cosa possiamo fare a riguardo? E molti di noi si sono riuniti in questa coalizione che ha iniziato davvero a porsi domande sulla responsabilità delle organizzazioni non profit e sulla responsabilità del procuratore generale della California di far rispettare la legge sulle organizzazioni non profit. E le cose sono andate da lì.
Dimmi di più a riguardo. Che aspetto ha la legge senza scopo di lucro per quanto riguarda, ad esempio, OpenAI?
Gestisco un’organizzazione no-profit. Nel codice fiscale, ciò significa che la mia organizzazione non ha bisogno di pagare le tasse, ma in cambio di tale esenzione fiscale, siamo tenuti a operare al servizio di una missione di servizio pubblico. La nostra missione è garantire che l’industria tecnologica crei opportunità per tutti. La missione no-profit di OpenAI è garantire che l’intelligenza artificiale si sviluppi a beneficio di tutta l’umanità. E legalmente, Sam Altman è tenuto a dare priorità alla missione di OpenAI sopra ogni altra cosa.
Quindi, quando hanno deciso che avrebbero diviso l’organizzazione no-profit da quella a scopo di lucro, hanno scoperto che in realtà legalmente non potevano farlo senza cedere la proprietà intellettuale posseduta dall’organizzazione no-profit, inclusa tutta la proprietà intellettuale creata che è alla base del modello ChatGPT, e la partecipazione azionaria che l’organizzazione no-profit possedeva nella società a scopo di lucro.
Penso che abbiano guardato il prezzo e abbiano detto: Non è un prezzo che siamo disposti a pagare. E così, invece di dividere il no-profit da quello a scopo di lucro, hanno deciso di continuare su questa strada di proprietà senza scopo di lucro, che a mio avviso è completamente insostenibile, insostenibile e inconciliabile.
Fondamentalmente, ogni giorno in cui OpenAI esiste, violano la legge.
E in realtà quello che stanno facendo è semplicemente sfidare il procuratore generale a ritenerli responsabili di ciò. Penso che pensino di essere troppo grandi per essere ritenuti responsabili e hanno bisogno che l’AG (della California) dia per scontato che non vincerà una causa. Ed è quello che hanno fatto. Si sono caricati di avvocati e stanno scommettendo che l’AG non perseguirà la questione in alcun modo che sia effettivamente significativo.
Va bene. Quindi, se ti seguo, nonostante il fatto che OpenAI si sia divisa in un ramo a scopo di lucro e in uno no-profit, la loro missione no-profit continua a prevalere su tutto ciò che fanno. E per questo motivo stanno violando la legge della California, perché non è possibile che gli interessi delle organizzazioni non profit abbiano mai un ruolo primario nella loro attività..
Giusto. Penso che, come direbbero i ragazzi, ci stiano giocando in faccia. Si aspettano che crediamo sulla parola che mentre operano, mentre stringono accordi con il Dipartimento della Difesa per sviluppare armi autonome e sistemi di sorveglianza sui cittadini americani, mentre combattono in tribunale i genitori i cui figli si sono suicidati a causa delle conversazioni che questi ragazzi avevano con i loro chatbot, si aspettano che crediamo che la missione no-profit abbia la priorità rispetto alla motivazione del profitto dell’azienda.
Sappiamo tutti che la priorità assoluta di OpenAI è “vincere” la corsa all’intelligenza artificiale. Si tratta di battere la concorrenza sul mercato e di fondare la più grande azienda di intelligenza artificiale che si possa creare. Nella misura in cui la missione no-profit entrerà in conflitto con ciò, l’azienda lo farà Sempre dare priorità ai profitti rispetto alla missione.
Una legge è valida tanto quanto la sua applicazione. E penso che se c’è una regola nella Silicon Valley, è chiedere perdono e non permesso. Penso che abbiano detto, Sai, ne vale la pena. Ci sono abbastanza soldi in gioco per permetterci di infrangere la legge e fare il lavoro di pubbliche relazioni, il lavoro di lobbying e l’altro lavoro che dobbiamo fare per garantire che queste leggi non vengano mai applicate contro di noi..
E quando parli di lavoro di pubbliche relazioni, di lavoro di lobbying, intendi dire che alla fine doneremo via questi 180 miliardi di dollari?
Bene, ecco il punto. Questa settimana hanno annunciato un elenco di priorità in cui la fondazione avrebbe investito. Hanno indicato come una delle loro priorità la ricerca sull’Alzheimer. Mia madre sta attualmente morendo di Alzheimer. Ho una copia del gene che mi espone a un rischio estremo di sviluppare l’Alzheimer quando sarò più grande. Quindi prego ogni giorno affinché l’intelligenza artificiale ci aiuti a trovare una soluzione all’Alzheimer abbastanza velocemente da poterne beneficiare io e la mia famiglia.
Ma lascia che ti faccia una domanda. Cosa succederebbe, secondo te, se la ricerca finanziata dalla Fondazione OpenAI scoprisse che in realtà i modelli di Anthropic sono migliori nella scoperta di farmaci o nelle scoperte scientifiche rispetto a ChatGPT o a qualsiasi altro modello di OpenAI? Cosa significa per l’indipendenza della ricerca scientifica, se tutta questa ricerca è finanziata da un soggetto che ha un conflitto di interessi inconciliabile?
“Non dobbiamo credere in parola a queste aziende che sanno meglio come governare questa tecnologia. Dovremmo avere una maggiore immaginazione su ciò che è possibile.”
Non accetteremmo la scienza sulla nicotina finanziata dalle aziende produttrici di tabacco. Non accettiamo la scienza sulla dipendenza da alcol finanziata dalle aziende produttrici di alcol. Non accettiamo la scienza sulle bevande zuccherate dell’industria della soda. E non dovremmo accettare che questa ricerca scientifica sia finanziata da un’entità che ha un interesse finanziario acquisito nel risultato.
Ed è per questo che è così fondamentale che la OpenAI Foundation In realtà essere indipendente, avere un consiglio di amministrazione indipendente, poter impiegare le proprie risorse in modo indipendente, che la ricerca che finanzia sia indipendente.
Pensi ancora che forse sia meglio che OpenAI affermi di voler donare miliardi per una società migliore, piuttosto che dire che Anthropic e Google magari si impegnano a donare soldi, ma non altrettanto?
Ebbene, Google ha una base aziendale. Si chiama Google.org. E mi aspetto che in questa struttura, con la tensione e il conflitto di interessi che ha la OpenAI Foundation, funzionerà molto più come Google.org, che è essenzialmente un braccio del dipartimento marketing, un programma di responsabilità sociale aziendale che dà soldi a gruppi innocui, ma non farà mai nulla che mini le priorità di Google.
Penso che se si legge tra le righe del comunicato stampa di Open AI, il lavoro che dicono di voler continuare a fare con i finanziamenti comunitari riguarda il convincere le persone dell’importanza, del valore e dei vantaggi dell’uso dell’IA. Voglio dire, questa è un’opportunità di costruzione del mercato per loro. In realtà questo non garantirà che l’intelligenza artificiale venga sviluppata a beneficio dell’umanità. E quindi, no, non penso che funzioneranno in modo diverso rispetto a qualsiasi braccio di responsabilità sociale delle altre società. Questo è essenzialmente ciò che hanno costruito qui.
Questa è la battaglia del nostro tempo. L’intelligenza artificiale non è inevitabile. Il modo in cui si sviluppa non è inevitabile. E non dobbiamo credere in parola a queste aziende che sanno meglio come governare questa tecnologia. Dovremmo avere una maggiore immaginazione su ciò che è possibile. E se non altro, questo dovrebbe darci più energia e motivazione per riparare ciò che non va nella nostra democrazia piuttosto che sederci e lasciare che i miliardari controllino il nostro futuro.
Parli mai più con Sam Altman?
Non risponde alle mie chiamate.
Bene, grazie per aver parlato con noi.
