Ne oslanjajte se na AI za informacije o lijekovima!
- Budite prvi i komentirajte!
- 2 min čitanja
Pojava umjetne inteligencije (AI) izazvala je značajno uzbuđenje, a mnogi se nadaju da bi mogla poboljšati sposobnosti kako pacijenata, tako i zdravstvenih radnika. Iako su alati za probir temeljeni na AI pokazali neke pozitivne rezultate, studije ukazuju na to da AI chatbotovi, poput ChatGPT-a, često daju netočne medicinske savjete i mogu navest lažne medicinske časopise kao izvore.
Unatoč tome, anketa Kaiser Family Foundation otkriva da otprilike jedna od šest odraslih osoba mjesečno konzultira chatbotove za medicinske informacije i savjete.
Netočne i potencijalno opasne informacije
Nedavna studija objavljena u BMJ Quality & Safety naglašava opasnosti oslanjanja na chatbotove i pokazuje da je značajan broj njihovih odgovora o lijekovima bio netočan ili potencijalno opasan.
U studiji su istraživači procijenili čitljivost, potpunost i točnost odgovora chatbotova o 50 najčešće propisanih lijekova u SAD-u 2020. godine, koristeći Bing Copilot, pretraživač obogaćen AI-jem. Postavili su pitanja o svakom lijeku te generirali ukupno 500 odgovora.
Pitanja su se fokusirala na različite aspekte, uključujući:
- namjenu lijeka
- mehanizam djelovanja
- upute za korištenje
- uobičajene nuspojave
- kontraindikacije.
Kako bi procijenili čitljivost, istraživači su izračunali Fleschov indeks čitljivosti, koji procjenjuje obrazovni nivo potreban za razumijevanje teksta. Rezultat iznad 37 sugerira da bi pojedinci trebali najmanje srednjoškolsko obrazovanje kako bi razumjeli odgovore.
Odgovori chatbotova uspoređeni su s informacijama s internetske stranice o lijekovima koja je prošla stručnu recenziju, www.drugs.com, kako bi se procijenila potpunost i točnost.
Osim toga, sedam stručnjaka za sigurnost lijekova ocijenilo je znanstveni konsenzus i potencijalne rizike ako pacijenti slijede savjete chatbotova. Otkrili su nesuglasice između izjava chatbotova i referentnih podataka u 26 % odgovora, pri čemu je više od 3 % bilo potpuno nekonzistentno.
Među podskupinom od 20 odgovora koji su pokazali nisku točnost ili potpunost, samo 54 % usklađivalo se sa znanstvenim konsenzusom, dok je 39 % bilo u suprotnosti s njim, a za preostalih 6 % nije bilo utvrđenog konsenzusa.
Studija nije uključivala stvarna iskustva pacijenata
Međutim, studija nije uključivala stvarna iskustva pacijenata, a autori su primijetili da bi upiti na različitim jezicima ili iz različitih zemalja mogli utjecati na kvalitetu odgovora chatbotova.
Iako je AI chatbot općenito pružio potpune i točne odgovore u ovoj studiji, istraživači su upozorili na rizike korištenja istog za informacije o lijekovima. Naglasili su da su odgovori chatbotova često bili teški za čitanje, nedostajale su ključne informacije ili su sadržavali netočnosti, što bi moglo ugroziti sigurnost pacijenata i lijekova.
S obzirom na nesposobnost chatbotova da dosljedno pružaju pouzdane informacije o lijekovima, od suštinskog je značaja da pacijenti konzultiraju svoje zdravstvene radnike.
Pročitajte i ove članke:
- Upotreba ChatGPT-a u dijagnozi bolesti: Trebamo li svoj život i zdravlje dati u ruke umjetne inteligencije? Evo što o tome kaže liječnik
- Hoće li umjetna inteligencija zamijeniti liječnike? Otkrila je 20 % više karcinoma od dva specijalizirana radiologa
- Najrazvijeniji chatbot: Hoće li ChatGPT zamijeniti pojedine poslove? Psihologinja otkriva kakvu nam budućnost nosi umjetna inteligencija.
Tekst Dana
Za vas izdvajamo
12 vježbi s vlastitom težinom za izgradnju mišića
- Tomislav Stanić
- 4 min čitanja
- Andrikyan, W. i sur. (2024). Artificial intelligence-powered chatbots in search engines: a cross-sectional study on the quality and risks of drug information for patients. BMJ Quality & Safety, bmjqs-2024-017476.
- Krištopaitytė, E. (2024). Don’t Rely on AI Chatbots for Drug Information. Healthnews.
- Presiado, M i sur. (2024). KFF Health Misinformation Tracking Poll: Artificial Intelligence and Health Information. KFF.