OpenAI potrebbe smettere di essere una no-profit e diventare una società a scopo di lucro

La creazione di una for-profit benefit corporation potrebbe rendere OpenAI più competitiva e attrarre ulteriori capitali.

OpenAI è stata fondata nel 2015 con una missione chiara: creare un’intelligenza artificiale avanzata che potesse portare benefici all’intera umanità. Fin dai suoi esordi, si è distinta come una non-profit, attirando attenzioni e risorse per il suo approccio etico allo sviluppo dell’IA. Questo approccio le ha permesso di raccogliere consensi da chi vedeva nell’azienda un modello di governance focalizzato non tanto sul profitto, quanto piuttosto sulla sicurezza e l’innovazione tecnologica a vantaggio di tutti.

Nel corso degli anni, però, OpenAI ha anche riconosciuto la necessità di finanziamenti significativi per poter continuare la sua ricerca su vasta scala. L’introduzione di OpenAI LP, una controllata for-profit creata nel 2019, ha permesso all’organizzazione di attrarre investitori di alto profilo, come Microsoft. Questo ha messo in evidenza come, per competere in un mercato sempre più agguerrito, una solida base finanziaria fosse essenziale, pur senza compromettere gli obiettivi etici alla base dell’azienda.

L’evoluzione del settore dell’intelligenza artificiale ha portato OpenAI a ridefinire il proprio ruolo nel panorama mondiale. Con il lancio di ChatGPT alla fine del 2022, la società ha raggiunto una popolarità senza precedenti, attirando milioni di utenti e lanciando una vera e propria corsa globale agli investimenti in IA. Tuttavia, con l’espansione rapida della tecnologia, sono emersi anche interrogativi su come l’azienda possa bilanciare lo sviluppo economico con la sua missione originale.

Nel contesto di questa crescita esponenziale, si discute ora di una possibile trasformazione radicale per OpenAI: la conversione da non-profit a una vera e propria società a scopo di lucro.

L’importanza del cambiamento strutturale

Una delle principali motivazioni dietro questa possibile svolta è la crescente pressione da parte degli investitori. La creazione di una for-profit benefit corporation potrebbe rendere OpenAI più competitiva e attrarre ulteriori capitali, un elemento cruciale in un momento storico in cui l’intelligenza artificiale è diventata uno dei settori più ambiti e redditizi. Tuttavia, ciò implicherebbe anche una nuova gestione dei rischi legati all’IA, con una governance potenzialmente più orientata al mercato e meno controllata dal consiglio della non-profit che attualmente detiene la maggioranza del potere decisionale.

La ristrutturazione in corso prevede anche che Sam Altman, l’attuale CEO, possa ricevere per la prima volta delle quote azionarie, un cambiamento significativo considerando il suo precedente impegno a non prendere equity per evitare conflitti d’interesse.

L’azienda OpenAI (Depositphotos foto) – www.financecue.it

Il ruolo della governance e il futuro della missione

Questo passo potrebbe portare la valutazione di OpenAI a toccare la cifra straordinaria di 150 miliardi di dollari, un traguardo che riflette non solo il successo dell’azienda, ma anche l’enorme potenziale dell’intelligenza artificiale nel plasmare il futuro. Questo cambiamento, però, non riguarda solo la leadership e i valori azionari: la nuova struttura aziendale mirerebbe anche a rimuovere il limite ai ritorni sugli investimenti per attrarre ulteriori capitali, il che segnerebbe un’importante svolta nel rapporto con gli investitori.

Tuttavia, il passaggio da un modello non-profit a una società orientata al profitto solleva interrogativi sulla capacità dell’azienda di mantenere la sua missione etica. Alcuni osservatori si chiedono se la governance futura, più in linea con gli interessi degli investitori, sarà in grado di mantenere gli impegni originali di OpenAI verso la sicurezza dell’IA. In particolare, preoccupano le potenziali implicazioni sulla gestione dei rischi associati allo sviluppo dell’AGI (intelligenza generale artificiale), soprattutto alla luce della decisione dell’azienda di sciogliere il team dedicato al superallineamento che si occupava dei rischi a lungo termine dell’IA.

Published by
Furio Lucchesi