• ADV
    • CHI SIAMO
    • CONTATTI
  • TECH
  • FINTECH
  • AI
  • WEB3
  • LIFESTYLE
  • MOTORI
  • SVIZZERA
  • SVAPO
  • BRANDED
  • TREND
  • PUBBLICITA’
  • CHI SIAMO
  • REDAZIONE
  • CONTATTI
  • CISION – PRNEWSWIRE
#ASSODIGITALE.

NEWS TECH & FINTECH + AI & LIFESTYLE

#ASSODIGITALE.
  • ADV
    • CHI SIAMO
    • CONTATTI
  • TECH
  • FINTECH
  • AI
  • WEB3
  • LIFESTYLE
  • MOTORI
  • SVIZZERA
  • SVAPO
  • BRANDED
  • TREND
  • AI INTELLIGENZA ARTIFICIALE
  • BLOCKCHAIN

ChatGPT minaccia la ricerca scientifica?

  • Redazione Assodigitale
  • 10 Gennaio 2023

ChatGPT e la minaccia per la ricerca scientifica

▷ GUADAGNA & RISPARMIA con i nostri Coupon & Referral Code: CLICCA QUI ORA!

Il nuovo e popolarissimo chatbot ChatGPT è stato progettato per produrre in modo convincente abstract scientifici che ingannano i revisori e gli scienziati facendogli credere che quegli studi siano la realtà?

Indice dei Contenuti:
  • ChatGPT minaccia la ricerca scientifica?
  • ChatGPT e la minaccia per la ricerca scientifica
  • I risultati dello studio
  • La preoccupazione degli autori
  • La minaccia per la scienza
  • L’effetto sulla pubblicazione di ricerche
  • La necessità di nuove misure di sicurezza
  • Il potenziale positivo di ChatGPT
  • Conclusione scontata?


USA IL CODICE MFL25BLCONS PER AVERE LO SCONTO DEL 20% SUL BIGLIETTO DI INGRESSO! ==> CLICCA QUI!

Questa era la domanda che preoccupava il medico-scienziato della Northwestern Medicine Dr. Catherine Gao quando ha progettato uno studio – collaborando con gli scienziati dell’Università di Chicago – per testare quella teoria.

I risultati dello studio

I risultati dello studio sono stati allarmanti: i revisori umani accecati – quando hanno ricevuto un mix di abstract reali e falsamente generati – sono stati in grado di individuare gli abstract generati da ChatGPT solo il 68% delle volte.

LEGGI ANCHE ▷  NEO Beta di 1X: il robot umanoide innovativo che rivoluzionerà la nostra casa


SCONTO 10% sul PREZZO DI ACQUISTO usando il codice BTCITALY ==> CLICCA QUI

I revisori hanno anche identificato erroneamente il 14% degli abstract reali come generati dall’intelligenza artificiale.

La preoccupazione degli autori

“I nostri revisori sapevano che alcuni degli abstract che stavano ricevendo erano falsi, quindi erano molto sospettosi”, ha detto l’autore corrispondente Gao, istruttore di medicina polmonare e terapia intensiva presso la Northwestern University Feinberg School of Medicine.

“Questo non è qualcuno che legge un abstract in natura. Il fatto che i nostri revisori abbiano ancora perso quelli generati dall’intelligenza artificiale il 32% delle volte significa che questi abstract sono davvero buoni.

Sospetto che se qualcuno si imbattesse in uno di questi abstract generati, non sarebbe necessariamente in grado di identificarlo come scritto dall’IA.

La minaccia per la scienza

Gli estratti falsi difficili da rilevare potrebbero minare la scienza, ha detto Gao. “Questo è preoccupante perché ChatGPT potrebbe essere utilizzato dalle ‘cartiere’ per fabbricare abstract scientifici convincenti”, ha affermato Gao.

LEGGI ANCHE ▷  Multi-Chain Layer 2: Espansione strategica in Corea del Sud

“E se altre persone provano a costruire la loro scienza partendo da questi studi errati, ciò può essere davvero pericoloso.” Le cartiere sono organizzazioni illegali che producono lavoro scientifico fabbricato a scopo di lucro.

L’effetto sulla pubblicazione di ricerche

La facilità con cui ChatGPT produce abstract realistici e convincenti potrebbe aumentare la produzione da parte delle cartiere e falsi invii a riviste e conferenze scientifiche, preoccupa Gao. Il documento è stato pubblicato in una prestampa su bioRxiv.

I preprint non sono ancora sottoposti a peer review e devono essere considerati risultati preliminari non ancora sottoposti a peer-review, ma questi risultati indicano che c’è una minaccia reale per la validità della ricerca scientifica.

La necessità di nuove misure di sicurezza

La scienza si basa sulla validità dei dati e sulla correttezza delle conclusioni. Se i revisori non sono in grado di individuare gli abstract falsi generati da un’intelligenza artificiale, ciò potrebbe avere conseguenze negative per la comunità scientifica.

È pertanto essenziale che vengano adottate nuove misure di sicurezza per garantire la validità dei dati e la corretta interpretazione dei risultati.

LEGGI ANCHE ▷  Bitcoin riprende quota, ma esperti suggeriscono prudenza

Il potenziale positivo di ChatGPT

Nonostante questi risultati preoccupanti, è importante notare che gli strumenti come ChatGPT potrebbero anche essere utilizzati a fini positivi nella scrittura scientifica. Ad esempio, potrebbero aiutare gli scienziati a generare rapidamente abstract di alta qualità per le loro ricerche, o potrebbero essere utilizzati per generare automaticamente traduzioni di abstract in diverse lingue per rendere la ricerca più accessibile a un pubblico globale.

Conclusione scontata?

Il nuovo studio dimostra che ChatGPT è in grado di generare abstract scientifici convincenti che ingannano i revisori umani. Questo rappresenta una minaccia per la validità della ricerca scientifica e richiede l’adozione di nuove misure di sicurezza.

È importante che la comunità scientifica sia consapevole di questo problema e che si lavori insieme per trovare soluzioni. Nonostante ciò, è anche importante non dimenticare che gli strumenti come ChatGPT possono essere utilizzati a fini positivi, e dunque è importante sfruttare il loro potenziale al meglio.


Sostieni Assodigitale.it nella sua opera di divulgazione

Grazie per avere selezionato e letto questo articolo che ti offriamo per sempre gratuitamente, senza invasivi banner pubblicitari o imbarazzanti paywall e se ritieni che questo articolo per te abbia rappresentato un arricchimento personale e culturale puoi finanziare il nostro lavoro con un piccolo sostegno di 1 chf semplicemente CLICCANDO QUI.

← Post Precedente
Post Successivo →
Redazione Assodigitale

Articolo editoriale realizzato dalla Redazione di Assodigitale. Per tutte le vostre esigenze editoriali e per proporci progetti speciali di Branded Content oppure per inviare alla redazione prodotti per recensioni e prove tecniche potete contattarci direttamente scrivendo alla redazione : CLICCA QUI

 


ISCRIVITI SUBITO AL NOSTRO FEED SU GOOGLE NEWS ==> CLICCA QUI!


DIRETTORE EDITORIALE

Michele Ficara Manganelli ✿

PUBBLICITA’ – COMUNICATI STAMPA – PROVE PRODOTTI

Per acquistare pubblicità CLICCA QUI

Per inviarci comunicati stampa e per proporci prodotti da testare prodotti CLICCA QUI

#ASSODIGITALE.
  • PUBBLICITA’
  • JOBS
  • REDAZIONE
  • CHI SIAMO
  • CONTATTI – IMPRESSUM
  • PRIVACY
  • COOKIE

PUBBLICITA’ COMUNICATI STAMPA

Per acquistare pubblicità potete richiedere una offerta personalizzata scrivendo al reparto pubblicitario.

Per pubblicare un comunicato stampa potete richiedere una offerta commerciale scrivendo alla redazione.

Per inviarci prodotti per una recensione giornalistica potete scrivere QUI

Per informazioni & contatti generali potete scrivere alla segreteria.

Tutti i contenuti pubblicati all’interno del sito #ASSODIGITALE. “Copyright 2024” non sono duplicabili e/o riproducibili in nessuna forma, ma possono essere citati inserendo un link diretto e previa comunicazione via mail.

FONTE UFFICIALE GOOGLE NEWS

#ASSODIGITALE. da oltre 20 anni rappresenta una affidabile fonte giornalistica accreditata e certificata da Google News per la qualità dei suoi contenuti.

#ASSODIGITALE. è una testata editoriale storica che dal 2004 ha la missione di raccontare come la tecnologia può essere utile per migliorare la vita quotidiana approfondendo le tematiche relative a: TECH & FINTECH + AI + CRYPTO + BLOCKCHAIN + METAVERSE & LIFESTYLE + IOT + AUTOMOTIVE + EV + SMART CITIES + GAMING + STARTUP.

 

Inserisci la chiave di ricerca e premi invio.