OpenAI valuta controversa scansione oculare per nuovo social, token vola

Indice dei Contenuti:
Social network solo per umani reali
Un nuovo progetto interno di OpenAI punta a creare un social network popolato esclusivamente da esseri umani verificati, riducendo al minimo la presenza di bot e account falsi. Secondo indiscrezioni riportate da Forbes, il team dedicato sarebbe composto da meno di dieci persone, con una roadmap ancora fluida e senza una data di lancio definita. L’obiettivo è posizionare la piattaforma come alternativa ai social tradizionali, dove l’engagement è spesso drogato da automazioni e profili fake.
Il modello proposto si baserebbe su sistemi di “proof-of-personhood”, ovvero tecnologie in grado di attestare che dietro un account ci sia una persona in carne e ossa. In questo contesto rientrano strumenti come il riconoscimento facciale tipo Apple Face ID e, soprattutto, lo scanner dell’iride dell’Orb di Worldcoin. L’idea è di rendere più affidabili conversazioni, metriche e contenuti, offrendo un ambiente percepito come più autentico e meno manipolabile.
L’eventuale ingresso di OpenAI nel mercato dei social network avrebbe implicazioni strategiche notevoli: unirebbe infrastrutture di intelligenza artificiale avanzata con un grafo sociale di utenti verificati, creando basi ideali per sistemi di raccomandazione, moderazione automatizzata e nuovi formati pubblicitari. Ma restano forti interrogativi sulla governance dei dati biometrici e sul bilanciamento tra sicurezza, privacy e inclusione digitale.
Biometria, Orb e token WLD
Il cuore tecnologico più discusso del progetto riguarda l’uso dell’Orb, il dispositivo di scansione dell’iride sviluppato da Worldcoin, iniziativa gestita da Tools for Humanity, società cofondata dall’amministratore delegato di OpenAI, Sam Altman. L’Orb cattura l’immagine dell’iride e genera un identificatore univoco, progettato per dimostrare l’unicità di una persona senza rivelare direttamente la sua identità civile. Questo identificatore potrebbe diventare la chiave d’accesso a un social “solo umani”, dove ogni profilo corrisponde a un individuo unico.
La notizia del possibile utilizzo di queste tecnologie ha riacceso l’attenzione su Worldcoin e sul suo token nativo WLD. Dopo le rivelazioni, WLD ha registrato un balzo superiore al 25%, avvicinandosi a quota 0,55 dollari, segno che il mercato legge l’integrazione con OpenAI come un catalizzatore di adozione. Tuttavia, la correlazione tra speculazione finanziaria e reale diffusione del sistema di proof-of-personhood resta tutta da dimostrare.
Parallelamente, resta aperta la questione di come integrare tecnologie come Apple Face ID in un ecosistema multipiattaforma. Qualsiasi architettura dovrà rispettare le policy dei produttori di hardware e i vincoli normativi, evitando lock-in e garantendo la massima interoperabilità. Per OpenAI, la sfida sarà progettare un’infrastruttura che sfrutti la biometria senza trasformarla in un ulteriore punto di concentrazione del potere sui dati sensibili.
Rischi per la privacy e scenari regolatori
L’uso di dati biometrici come impronte digitali, riconoscimento facciale o scansioni dell’iride è tra i temi più sensibili per le autorità di regolazione e per le organizzazioni a tutela dei diritti digitali. I critici sottolineano che un’iride non può essere “cambiata” come una password: se il database venisse violato o usato in modo improprio, il rischio sarebbe permanente. Per questo, giurisdizioni come l’Unione Europea, con il GDPR e l’AI Act, trattano i dati biometrici come categoria speciale, imponendo standard di sicurezza e trasparenza molto elevati.
Le fonti vicine al progetto indicano che i piani di OpenAI potrebbero cambiare in modo significativo man mano che emergono criticità tecniche, etiche e legali. Nessuna tempistica ufficiale, nessun modello di business definitivo, e un quadro regolatorio in rapida evoluzione obbligano a una progettazione “privacy by design”. Questo significa minimizzare la raccolta dei dati, puntare su tecniche di anonimizzazione robuste e rendere verificabile, anche da terze parti, il rispetto degli impegni dichiarati.
In parallelo, il contesto globale dei social network attraversa una fase di sfiducia: accuse di manipolazione algoritmica, campagne di disinformazione, account automatizzati che amplificano contenuti estremi. Un social “real humans only” potrebbe ridurre parte di queste distorsioni, ma non eliminare fenomeni come l’abuso, l’odio organizzato o la sorveglianza di Stato. La direzione che prenderà il progetto di OpenAI dipenderà dalla capacità di conciliare innovazione, diritti fondamentali e sostenibilità economica.
FAQ
D: Che cos’è il social “solo umani” di OpenAI?
R: È un progetto di piattaforma sociale che prevede utenti verificati tramite sistemi di proof-of-personhood per limitare bot e account falsi.
D: A che punto è lo sviluppo del progetto?
R: Il social è in fase iniziale, gestito da un piccolo team interno e senza una data ufficiale di lancio pubblico.
D: Come funzionerebbe la verifica dell’identità?
R: Si ipotizza l’uso di strumenti biometrici come il riconoscimento facciale e l’Orb di Worldcoin, che genera identificatori unici a partire dall’iride.
D: Perché il token WLD è salito di valore?
R: Le indiscrezioni sull’uso della tecnologia Worldcoin con il social di OpenAI hanno alimentato interesse speculativo sul token WLD.
D: Quali sono i principali rischi per la privacy?
R: Il rischio principale è la compromissione di dati biometrici permanenti, difficilmente revocabili o sostituibili in caso di violazione.
D: Il progetto è conforme al GDPR europeo?
R: Non è ancora chiaro: dovrà dimostrare un approccio rigoroso a minimizzazione dei dati, anonimizzazione e consenso informato.
D: I bot saranno completamente eliminati?
R: Nessun sistema è perfetto, ma la verifica biometrica può rendere più costoso e complesso creare grandi reti di account automatizzati.
D: Qual è la fonte delle informazioni sul progetto?
R: Le informazioni provengono da un’inchiesta di Forbes basata su fonti interne e documentazione visionata dalla redazione.




