Ne oslanjajte se na AI za informacije o lijekovima!

AI chatbotovi, poput ChatGPT-a, često daju netočne medicinske savjete

Pojava umjetne inteligencije (AI) izazvala je značajno uzbuđenje, a mnogi se nadaju da bi mogla poboljšati sposobnosti kako pacijenata, tako i zdravstvenih radnika. Iako su alati za probir temeljeni na AI pokazali neke pozitivne rezultate, studije ukazuju na to da AI chatbotovi, poput ChatGPT-a, često daju netočne medicinske savjete i mogu navest lažne medicinske časopise kao izvore.

Unatoč tome, anketa Kaiser Family Foundation otkriva da otprilike jedna od šest odraslih osoba mjesečno konzultira chatbotove za medicinske informacije i savjete.

Netočne i potencijalno opasne informacije

Nedavna studija objavljena u BMJ Quality & Safety naglašava opasnosti oslanjanja na chatbotove i pokazuje da je značajan broj njihovih odgovora o lijekovima bio netočan ili potencijalno opasan.

U studiji su istraživači procijenili čitljivost, potpunost i točnost odgovora chatbotova o 50 najčešće propisanih lijekova u SAD-u 2020. godine, koristeći Bing Copilot, pretraživač obogaćen AI-jem. Postavili su pitanja o svakom lijeku te generirali ukupno 500 odgovora.

Pitanja su se fokusirala na različite aspekte, uključujući:

  • namjenu lijeka
  • mehanizam djelovanja
  • upute za korištenje
  • uobičajene nuspojave
  • kontraindikacije.

Kako bi procijenili čitljivost, istraživači su izračunali Fleschov indeks čitljivosti, koji procjenjuje obrazovni nivo potreban za razumijevanje teksta. Rezultat iznad 37 sugerira da bi pojedinci trebali najmanje srednjoškolsko obrazovanje kako bi razumjeli odgovore.

Odgovori chatbotova uspoređeni su s informacijama s internetske stranice o lijekovima koja je prošla stručnu recenziju, www.drugs.com, kako bi se procijenila potpunost i točnost.

U prosjeku je potpunost odgovora bila 77 %. Pitanje s najnižim rezultatom potpunosti (23 %) odnosilo se na razmatranja prilikom uzimanja lijeka.
jedna od šest odraslih osoba mjesečno konzultira chatbotove za medicinske informacije
FOTO: Shutterstock

Osim toga, sedam stručnjaka za sigurnost lijekova ocijenilo je znanstveni konsenzus i potencijalne rizike ako pacijenti slijede savjete chatbotova. Otkrili su nesuglasice između izjava chatbotova i referentnih podataka u 26 % odgovora, pri čemu je više od 3 % bilo potpuno nekonzistentno.

Među podskupinom od 20 odgovora koji su pokazali nisku točnost ili potpunost, samo 54 % usklađivalo se sa znanstvenim konsenzusom, dok je 39 % bilo u suprotnosti s njim, a za preostalih 6 % nije bilo utvrđenog konsenzusa.

Studija nije uključivala stvarna iskustva pacijenata

Međutim, studija nije uključivala stvarna iskustva pacijenata, a autori su primijetili da bi upiti na različitim jezicima ili iz različitih zemalja mogli utjecati na kvalitetu odgovora chatbotova.

Iako je AI chatbot općenito pružio potpune i točne odgovore u ovoj studiji, istraživači su upozorili na rizike korištenja istog za informacije o lijekovima. Naglasili su da su odgovori chatbotova često bili teški za čitanje, nedostajale su ključne informacije ili su sadržavali netočnosti, što bi moglo ugroziti sigurnost pacijenata i lijekova.

S obzirom na nesposobnost chatbotova da dosljedno pružaju pouzdane informacije o lijekovima, od suštinskog je značaja da pacijenti konzultiraju svoje zdravstvene radnike. 

Pročitajte i ove članke:

Članak objavljen:

Ocijenite članak

0 / 5   0

Foto: Shutterstock

Napomena: Ovaj sadržaj je informativnog karaktera te nije prilagođen vašim osobnim potrebama. Sadržaj nije zamjena za stručni medicinski savjet.

Podijelite članak

Kopirajte adresu