Microsoft Copilot dà consigli medici pericolosi nel 22% dei casi

Microsoft Copilot dà consigli medici pericolosi nel 22% dei casi

Secondo una ricerca europea, nel 42% dei casi le risposte mediche date da Microsoft Copilot potrebbero causare gravi danni ai pazienti.
Microsoft Copilot dà consigli medici pericolosi nel 22% dei casi
Secondo una ricerca europea, nel 42% dei casi le risposte mediche date da Microsoft Copilot potrebbero causare gravi danni ai pazienti.

I motori di ricerca sono generalmente la prima fase della ricerca di informazioni e, con l’arrivo dell’AI, gli utenti di Internet ottengono risposte più dettagliate che rispondono in modo più preciso alle loro domande. Tuttavia, questi risultati non sono necessariamente più accurati. Questa è la conclusione di uno studio condotto da ricercatori belgi e tedeschi, che hanno deciso di mettere alla prova Bing e Microsoft Copilot con domande di carattere medico.

I consigli medici di Copilot possono causare gravi danni

Basandosi sui 50 farmaci più utilizzati negli Stati Uniti, i ricercatori hanno posto una serie di dieci domande sugli effetti collaterali, le controindicazioni e il dosaggio di ciascun farmaco. Hanno poi confrontato queste 500 risposte con le informazioni fornite dalla serissima enciclopedia farmaceutica drugs.com, il cui contenuto è stato ufficialmente accreditato come fonte medica affidabile.

Da un sottoinsieme di circa venti risposte, gli esperti hanno giudicato che il 66% era potenzialmente dannoso. Il 42% di queste 20 risposte generate da Microsoft Copilot è stato considerato in grado di causare danni moderati o lievi. Soprattutto, il 22% di questi risultati avrebbe potuto causare danni gravi, o addirittura la morte, se l’utente di Internet avesse seguito i consigli di Copilot alla lettera.

Nel sottoporre le risposte ai test di leggibilità di Flesch-Kincaid, i ricercatori hanno anche notato che le risposte generate in Bing sono spesso piuttosto complesse da comprendere.

L’AI non può sostituire un dottore in carne e ossa

I risultati ottenuti tengono conto solo di una ventina di risposte, il che non è necessariamente rappresentativo dei 500 risultati ottenuti in totale. Tuttavia, l’affidabilità dell’AI di Microsoft è ampiamente messa in discussione in campo medico e non può sostituire il medico di famiglia.

Microsoft Copilot non è certo l’unica intelligenza artificiale a generare consigli pericolosi. Solo pochi mesi fa, Gemini di Google ha consigliato di usare la colla per non far sciogliere il formaggio sulla pizza… che è tutto dire.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
14 ott 2024
Link copiato negli appunti