Intelligenza artificiale sotto esame chi controlla davvero chi la addestra e con quali responsabilità

Lavoratori dell’IA: chi vende voce e volto per pochi dollari
In tutto il mondo, da India, Sudafrica e Stati Uniti, migliaia di persone stanno vendendo voce, volto e conversazioni private a piccole aziende di Intelligenza artificiale.
Accade oggi, in piattaforme che pagano da 14 dollari per semplici video di piedi fino a 50 centesimi al minuto per cedere le proprie chiamate telefoniche.
Lo fanno per integrare redditi bassi, ma i dati così raccolti alimentano modelli di IA destinati a restare in funzione per anni, sollevando interrogativi profondi su privacy, consenso informato e sfruttamento digitale.
In sintesi:
- Lavoratori in Paesi poveri cedono voce, volto e conversazioni per pochi dollari.
- Piattaforme come Silencio e Neon Mobile raccolgono dati intimi per addestrare modelli di IA.
- Contratti irrevocabili e senza royalties legano identità digitali per anni ai bot.
- Casi come quello dell’attore Adam Coy mostrano derive e rischi dei deepfake.
L’indagine del Guardian ricostruisce la nuova geografia dei “proletari digitali” dell’IA.
In India, il ventiduenne Sahil Tigga concede all’app Silencio accesso permanente al microfono dello smartphone, caricando tracce vocali e rumori ambientali per circa 100 dollari al mese, quanto basta per vivere.
A Chicago, il diciottenne Ramelio Hill vende ore di conversazioni intime con familiari e amici a Neon Mobile, che paga 50 centesimi al minuto per utilizzare telefonate reali come carburante per sistemi di dialogo automatizzati.
Contratti opachi, identità digitali e rischio deepfake permanente
Questi lavori di “addestratore umano” nascono per colmare l’attuale scarsità di dati di qualità che alimentano i modelli generativi.
Ma, come osserva il Guardian, sono per loro natura temporanei: una volta “reidratati” i database, la domanda di manodopera umana crollerà, mentre i dati ceduti continueranno a vivere nei sistemi per anni.
Su molte piattaforme i contratti sono irrevocabili e non prevedono alcuna royalty: un singolo audio di 20 minuti può alimentare chatbot e assistenti vocali per un periodo indefinito, senza ulteriori compensi per chi ha fornito la voce.
Gli stessi rischi riguardano immagini e video.
Volti e corpi possono essere riciclati in sistemi di riconoscimento facciale, campagne pubblicitarie o contenuti automatizzati in altre giurisdizioni, spesso irraggiungibili per chi volesse revocare il consenso.
Per la studiosa di privacy Jennifer King, dello Stanford Institute for Human-Centered Artificial Intelligence, il nodo è l’assoluta opacità: «i consumatori rischiano che i loro dati vengano riutilizzati in modi che non gradiscono, non hanno compreso o non si aspettavano».
Il caso Adam Coy e la prossima battaglia sulla proprietà dei dati
Il rischio non riguarda solo lavoratori precari o utenti anonimi.
L’attore newyorkese Adam Coy ha venduto nel 2024 la propria immagine per 1.000 dollari alla piattaforma di editing IA Captions, con clausole che vietavano usi politici o legati ad alcol, tabacco e pornografia, e con una licenza limitata a un anno.
Le condizioni, formalmente, sono state rispettate; eppure, poco dopo, amici e colleghi hanno iniziato a inviargli reel su Instagram in cui il suo deepfake sponsorizzava integratori medici non verificati per donne in gravidanza e nel postparto, ambito ad alto rischio sanitario e reputazionale.
Coy ha smesso di concedere i propri diritti d’immagine, ma ammette che potrebbe tornare a farlo per cifre molto più alte, segno di un equilibrio ancora instabile tra bisogno economico e tutela dell’identità.
Nell’assenza di regole globali vincolanti, la prossima grande battaglia sull’IA riguarderà proprio la proprietà e il controllo dei dati biometrici – voce, volto, gesti – che definiscono chi siamo, online e offline.
FAQ
Quanto vengono pagati i lavoratori che addestrano l’intelligenza artificiale?
Attualmente molti vengono pagati tra 14 dollari per brevi video e circa 50 centesimi al minuto per chiamate telefoniche, spesso senza royalties future.
Perché i contratti con le piattaforme di IA sono considerati rischiosi?
Sono rischiosi perché spesso irrevocabili, privi di royalties e poco chiari sugli usi futuri di voce, volto e dati personali ceduti.
Come posso proteggere la mia privacy se partecipo a questi programmi?
Serve leggere integralmente i contratti, evitare accordi irrevocabili, limitare l’accesso permanente al microfono e usare solo piattaforme con policy trasparenti verificabili.
I deepfake possono danneggiare la reputazione di chi vende la propria immagine?
Sì, possono associarne volto e voce a prodotti discutibili, messaggi fuorvianti o contesti sensibili, con conseguenze su reputazione, lavoro e relazioni personali.
Quali sono le fonti principali dei dati citati sull’IA e i lavoratori digitali?
I contenuti derivano da una elaborazione congiunta di notizie Ansa.it, Adnkronos.it, Asca.it e Agi.it, rielaborate dalla nostra Redazione.
DIRETTORE EDITORIALE
Michele Ficara Manganelli ✿
PUBBLICITA’ – COMUNICATI STAMPA – PROVE PRODOTTI
Per acquistare pubblicità CLICCA QUI
Per inviarci comunicati stampa e per proporci prodotti da testare prodotti CLICCA QUI



