• ADV
    • CHI SIAMO
    • CONTATTI
  • TECH
  • FINTECH
  • AI
  • WEB3
  • LIFESTYLE
  • MOTORI
  • SVIZZERA
  • SVAPO
  • BRANDED
  • TREND
  • PUBBLICITA’
  • CHI SIAMO
  • REDAZIONE
  • CONTATTI
  • CISION – PRNEWSWIRE
#ASSODIGITALE.

NEWS TECH & FINTECH + AI & LIFESTYLE

#ASSODIGITALE.
  • ADV
    • CHI SIAMO
    • CONTATTI
  • TECH
  • FINTECH
  • AI
  • WEB3
  • LIFESTYLE
  • MOTORI
  • SVIZZERA
  • SVAPO
  • BRANDED
  • TREND
  • AI INTELLIGENZA ARTIFICIALE

IA razziste: Google, Microsoft e Perplexity sotto accusa per discriminazione algoritmica

  • Redazione Assodigitale
  • 26 Ottobre 2024
IA razziste: Google, Microsoft e Perplexity sotto accusa per discriminazione algoritmica

Impatto delle IA sulla diffusione delle teorie razziste

▷ GUADAGNA & RISPARMIA con i nostri Coupon & Referral Code: CLICCA QUI ORA!

I recenti sviluppi nei motori di ricerca alimentati dall’intelligenza artificiale hanno sollevato preoccupazioni significative riguardo alla loro capacità di diffondere contenuti razzisti e disinformativi. Le tecnologie sviluppate da aziende leader come Google e Microsoft non solo forniscono risposte a interrogativi complessi, ma possono anche amplificare teorie infondate, sostenute da dati discutibili e da studi ampiamente screditati. Questo fenomeno si verifica in particolare quando i motori di ricerca attingono a fonti non verificate o a lavori scientifici che mancano di rigore metodologico.

Indice dei Contenuti:
  • IA razziste: Google, Microsoft e Perplexity sotto accusa per discriminazione algoritmica
  • Impatto delle IA sulla diffusione delle teorie razziste
  • L’indagine di Patrik Hermansson e le scoperte emerse
  • Reazioni delle aziende coinvolte e le loro giustificazioni
  • Necessità di sistemi di verifica più rigorosi nell’IA


USA IL CODICE MFL25BLCONS PER AVERE LO SCONTO DEL 20% SUL BIGLIETTO DI INGRESSO! ==> CLICCA QUI!

Uno degli aspetti più preoccupanti è la maniera in cui questi algoritmi generano risposte che possono apparire autorevoli e obiettive, ma che in realtà privano di contestualizzazione dati profondamente controversi. L’accumulo di informazioni distorte contribuisce alla legittimazione di posizioni razziste, rendendo questa dinamica di per sé pericolosa per la società. Il rischio insito in questa pratica è duplice: da una parte, si alimentano opinioni estrema basate su falsi presupposti; dall’altra, si crea una fiducia ingannevole nei risultati generati dalle AI, facendoli apparire come verità indiscutibili.

La promozione di determinati studi, come quelli condotti da Richard Lynn, ha portato a un terreno fertile per l’affermazione di teorie razziste che sono state in gran parte ridimensionate dalla comunità scientifica. Queste teorie, infatti, si fondano su approcci pseudoscientifici e su interpretazioni distorte dei dati, ma il loro richiamo da parte di motori di ricerca AI conferisce una sorta di validità a presunzioni dannose.


SCONTO 10% sul PREZZO DEL ticket usando il codice MEDIA10 ==> CLICCA QUI

Un punto critico nei dibattiti sull’impatto delle IA è la responsabilità delle aziende nel monitoraggio che effettuano sui dati utilizzati. L’evidente assenza di meccanismi di filtro adeguati per contrastare la diffusione di contenuti potenzialmente dannosi rischia di normalizzare, all’interno del dibattito pubblico, le narrazioni razziste. Questo fenomeno può contribuire non solo alla radicalizzazione di indivíduos vulnerabili, ma anche a permeare le menti di una vasta audience, rendendo la lotta contro il razzismo e la disinformazione sempre più complessa.

LEGGI ANCHE ▷  Progetto Accenture-Nvidia per supportare le aziende nell'implementazione dell'IA

L’indagine di Patrik Hermansson e le scoperte emerse

Patrik Hermansson, noto ricercatore presso il gruppo antirazzista britannico Hope Not Hate, ha condotto un’indagine approfondita sulle fonti di informazioni generate dai motori di ricerca basati sull’intelligenza artificiale. La sua ricerca ha rivelato come alcuni di questi strumenti digitali non solo siano suscettibili a errori, ma finiscano per propagare teorie razziste attraverso l’analisi di dati discutibili, altamente controversi e già ampiamente screditati dalla comunità scientifica.

Durante le sue indagini sulla Human Diversity Foundation, un’organizzazione con forti legami a teorie razziste che si presenta come successore del Pioneer Fund, Hermansson ha cercato informazioni sui quozienti intellettivi (QI) delle popolazioni di vari paesi. Con sorpresa, ha scoperto che i risultati offerti dai motori di ricerca alimentati dall’intelligenza artificiale riportavano senza alcun spirito critico dati provenienti da studi che sostenevano la superiorità genetica, in particolare quelli associati a Richard Lynn. Questi risultati evidenziavano come, nonostante le evidenti carenze metodologiche, il lavoro di Lynn venisse citato come se fosse un fatto incontrovertibile, legittimando in tal modo posizioni e teorie razziste.

La comunità scientifica ha da tempo messo in luce le limitazioni dello studio di Lynn, evidenziando metodi di ricerca discutibili e conclusioni infondati. Tuttavia, l’uso della sua ricerca da parte di IA ha portato a un’ulteriore amplificazione di queste teorie, presentandole come verità accettate. Rebecca Sear, direttrice del Centro per la Cultura e l’Evoluzione dell’Università Brunel di Londra, ha espresso le sue preoccupazioni su questa situazione, definendola non solo una diffusione di disinformazione, ma una vera e propria supporto a progetti politici legati al razzismo scientifico, che cercano di legittimare le disuguaglianze razziali come un dato di fatto.

Questa situazione ha sollevato interrogativi non solo sulla qualità e affidabilità delle fonti utilizzate dai motori di ricerca, ma anche sulla capacità delle intelligenze artificiali di distinguere tra informazioni di valore e dati infondati. L’analisi di Hermansson mette in evidenza l’importanza di implementare protocolli di verifica e di regole di trasparenza nelle fonti citate dalle IA, per garantire che l’informazione diffusa non contribuisca alla perpetuazione di ideologie dannose e discriminate.

Reazioni delle aziende coinvolte e le loro giustificazioni

Le aziende coinvolte in questa controversia hanno iniziato a rispondere alle critiche crescenti riguardanti le loro intelligenze artificiali e al modo in cui gestiscono l’accuratezza delle informazioni. Google, ad esempio, ha preso atto della frustrazione espressa dalla comunità accademica e dal pubblico. Un portavoce ha affermato che i sistemi attualmente in uso non hanno funzionato come previsto, in particolare nel trattare argomenti sensibili come il razzismo e le teorie pseudoscientifiche. In risposta alle preoccupazioni, Google ha informato di essere attivamente impegnata nella ricerca di soluzioni migliori per migliorare la qualità e l’affidabilità delle informazioni fornite, con l’obiettivo di prevenire la diffusione di contenuti problematici.

LEGGI ANCHE ▷  Presentazione del libro "Intelligenza Artificiale e Pubblica Amministrazione" alla Libreria San Paolo di San Giovanni Laterano

Microsoft, dal canto suo, ha difeso il proprio chatbot, definendolo un sistema che “distilla informazioni da più fonti web in un’unica risposta”. Hanno sottolineato l’importanza di fornire citazioni, che dovrebbero teoricamente permettere agli utenti di verificare le informazioni. Tuttavia, questo approccio ha ricevuto critiche riguardanti il fatto che, sebbene ci siano citazioni, la presenza di dati ritenuti controversi possa comunque perpetuare disinformazione e ideologie dannose. Il fatto che questi motori di ricerca attingano a studi ormai ampiamente screditati non ha fatto altro che alimentare una visione negativa nei confronti di questi strumenti, evidenziando lacune significative nel processo di verifica e nella responsabilità editoriale.

È importante notare che la manipolazione dei dati e la loro presentazione senza un’adeguata contestualizzazione possono condurre a un fraintendimento pericoloso del pubblico. La facilità con cui le informazioni possono essere amplificate da questi software pone un interrogativo cruciale: come è possibile che dati palesemente infondati possano apparire attendibili nei risultati delle ricerche? L’assenza di meccanismi di filtro responsabili attraverso i quali possa avvenire un’efficace selezione delle fonti rappresenta una grave lacuna. Inoltre, è imprescindibile la necessità di un dialogo aperto fra le aziende tecnologiche, i ricercatori e le organizzazioni civili per sviluppare standard più elevati per i sistemi di intelligenza artificiale.

Le giustificazioni delle aziende devono quindi andare oltre le semplici promesse di miglioramento. È essenziale che vengano adottate soluzioni concrete, come l’implementazione di protocolli di verifica delle fonti e un’attenta valutazione critica dei dati utilizzati. Solo così si può sperare di recuperare la fiducia degli utenti e garantire che i motori di ricerca non diventino veicoli attraverso cui teorie razziste possano prosperare, contribuendo invece a una diffusione più responsabile e accurata della conoscenza.

Necessità di sistemi di verifica più rigorosi nell’IA

L’emergere di teorie razziste alimentate dall’intelligenza artificiale sottolinea l’urgenza di implementare sistemi di verifica più rigorosi. Gli attuali modelli basati su intelligenza artificiale, utilizzati da grandi aziende come Google e Microsoft, non sembrano disporre di sufficienti meccanismi di controllo per garantire l’accuratezza e la giustezza delle informazioni. Questo problema diventa particolarmente critico quando si considera che le risposte fornite da tali sistemi possono venire percepite come dati oggettivi e scientificamente validi, nonostante siano spesso basate su teorie ampiamente contestate.

LEGGI ANCHE ▷  Hacker creano false memorie in ChatGPT per rubare dati degli utenti

La mancanza di una corretta verifica delle fonti e l’adozione acritica di studi discutibili è esemplificata dalle scoperte di Patrik Hermansson. La sua indagine ha svelato come informazioni infondate, specialmente quelle relative ai quozienti intellettivi, possano trovare spazio nei risultati dei motori di ricerca, contribuendo a legittimare posizioni razziste. È evidente che i sistemi di intelligenza artificiale oggi in uso non possiedono i filtri necessari per scartare dati errati o fuorvianti.

In questo contesto, si rende necessaria una revisione approfondita dei criteri utilizzati per la raccolta e la presentazione delle informazioni da parte degli algoritmi di IA. Ciò potrebbe includere l’integrazione di revisori umani e esperti nel valutare l’affidabilità delle fonti citate, nonché feature che permettano agli utenti di segnalare contenuti problematici. Tali misure sarebbero fondamentali per garantire che il contenuto propagato non indirizzi gli utenti verso narrazioni razziste o disinformative.

Un aspetto cruciale è l’educazione degli utenti, affinché possano sviluppare competenze critiche nella valutazione delle informazioni reperibili online. Gli utenti devono essere dotati degli strumenti necessari per discernere la verità da informazioni fuorvianti, individuando le differenze fra studi scientifici validi e teorie pseudoscientifiche. Le aziende tecnologiche sono chiamate a sviluppare risorse educative che possano supportare questa necessità, affiancando i loro strumenti di ricerca con contenuti che incoraggiano una lettura critica.

Nella lotta contro la diffusione di contenuti razzisti e disinformativi, è fondamentale che i sistemi di intelligenza artificiale non solo possano filtrare informazioni attendibili, ma anche sostenere un approccio proattivo nell’educazione degli utenti. Solo attraverso il raggiungimento di elevati standard di verifica e l’impegno verso una maggiore responsabilità editoriale, le aziende coinvolte potranno contribuire a creare un ambiente di informazione più sano, in grado di contrastare le ideologie dannose che minacciano la coesione sociale.


Sostieni Assodigitale.it nella sua opera di divulgazione

Grazie per avere selezionato e letto questo articolo che ti offriamo per sempre gratuitamente, senza invasivi banner pubblicitari o imbarazzanti paywall e se ritieni che questo articolo per te abbia rappresentato un arricchimento personale e culturale puoi finanziare il nostro lavoro con un piccolo sostegno di 1 chf semplicemente CLICCANDO QUI.

← Post Precedente
Post Successivo →
Redazione Assodigitale

Articolo editoriale realizzato dalla Redazione di Assodigitale. Per tutte le vostre esigenze editoriali e per proporci progetti speciali di Branded Content oppure per inviare alla redazione prodotti per recensioni e prove tecniche potete contattarci direttamente scrivendo alla redazione : CLICCA QUI

 


ISCRIVITI SUBITO AL NOSTRO FEED SU GOOGLE NEWS ==> CLICCA QUI!


DIRETTORE EDITORIALE

Michele Ficara Manganelli ✿

PUBBLICITA’ – COMUNICATI STAMPA – PROVE PRODOTTI

Per acquistare pubblicità CLICCA QUI

Per inviarci comunicati stampa e per proporci prodotti da testare prodotti CLICCA QUI

#ASSODIGITALE.
  • PUBBLICITA’
  • JOBS
  • REDAZIONE
  • CHI SIAMO
  • CONTATTI – IMPRESSUM
  • PRIVACY
  • COOKIE

PUBBLICITA’ COMUNICATI STAMPA

Per acquistare pubblicità potete richiedere una offerta personalizzata scrivendo al reparto pubblicitario.

Per pubblicare un comunicato stampa potete richiedere una offerta commerciale scrivendo alla redazione.

Per inviarci prodotti per una recensione giornalistica potete scrivere QUI

Per informazioni & contatti generali potete scrivere alla segreteria.

Tutti i contenuti pubblicati all’interno del sito #ASSODIGITALE. “Copyright 2024” non sono duplicabili e/o riproducibili in nessuna forma, ma possono essere citati inserendo un link diretto e previa comunicazione via mail.

FONTE UFFICIALE GOOGLE NEWS

#ASSODIGITALE. da oltre 20 anni rappresenta una affidabile fonte giornalistica accreditata e certificata da Google News per la qualità dei suoi contenuti.

#ASSODIGITALE. è una testata editoriale storica che dal 2004 ha la missione di raccontare come la tecnologia può essere utile per migliorare la vita quotidiana approfondendo le tematiche relative a: TECH & FINTECH + AI + CRYPTO + BLOCKCHAIN + METAVERSE & LIFESTYLE + IOT + AUTOMOTIVE + EV + SMART CITIES + GAMING + STARTUP.

 

Inserisci la chiave di ricerca e premi invio.