AI chatboti mohou poskytovat lékařské rady, které by mohly vést k smrti

Vědci z univerzity Erlangen-Norimberk v Německu zjistili, že programy umělé inteligence (AI) mohou pacientům poskytnout „potenciálně škodlivé“ rady, jaké léky mají užívat.

Jedna z pěti odpovědí generovaných chatbotem s umělou inteligencí k zodpovězení běžných otázek týkajících se léků na předpis může způsobit smrt nebo vážné poškození.“

Podle odborníků by programy umělé inteligence neměly být důvěryhodné za poskytování bezpečných a přesných lékařských rad.

V rámci studie vědci nastínili 10 nejčastěji kladených otázek týkajících se 50 běžných léků předepisovaných v USA.

Výzkumný tým se podíval na všech 500 odpovědí kopilota Bing – vyhledávače s funkcemi chatbota poháněného umělou inteligencí vyvinutého společností Microsoft.

Poté je porovnali s odpověďmi klinických farmaceutů a lékařů s odbornými znalostmi v oblasti farmakologie.

Kromě toho akademici analyzovali rady z recenzovaného aktuálního webu s informacemi o drogách.

Zjistili, že 26 % odpovědí od AI chatbotů neodpovídalo referenčním údajům a 3 % byla zcela nekonzistentní.

Zjištění také odhalila, že 42 % odpovědí chatbotů s umělou inteligencí by mohlo vést ke středně těžkému nebo mírnému poškození, zatímco 22 % by mohlo vést ke smrti nebo vážnému poškození.

Čitelnost odpovědí chatbotů často podle výsledků vyžadovala vysokoškolské vzdělání, aby je bylo možné pochopit.

Autoři uvedli: „Odpovědi Chatbota byly z velké části obtížně čitelné a odpovědi opakovaně postrádaly informace nebo vykazovaly nepřesnosti, což mohlo ohrozit bezpečnost pacientů a léků.!

„Navzdory jejich potenciálu je pro pacienty stále klíčové, aby se poradili se svými zdravotníky, protože chatboti nemusí vždy generovat bezchybné informace.“

Dodali: „Při doporučování vyhledávačů s umělou inteligencí se doporučuje opatrnost, dokud nebudou k dispozici citační nástroje s vyšší mírou přesnosti.“

Arjun Panesar, odborník na umělou inteligenci a autor několika knih na toto téma, uvedl: „Umělá inteligence je sice neuvěřitelným příslibem v transformaci zdravotní péče, ale v současnosti existuje mnoho omezení, zejména pokud jde o bezpečnost pacientů.“

„Systémy umělé inteligence, včetně chatbotů, dokážou rychle zpracovat obrovské množství dat, ale bez kontextu a úsudku, který poskytují zdravotníci, existuje riziko chyby nebo škodlivých výsledků. Umělá inteligence musí být postavena na transparentnosti, přesnosti a ve spolupráci s klinickými odborníky, aby bylo zajištěno, že bude sloužit pacientům bezpečně a efektivně.“

Mluvčí společnosti Microsoft řekl: „Copilot odpovídá na složité otázky destilací informací z více zdrojů do jediné odpovědi.“

„Copilot poskytuje propojené citace k těmto odpovědím, takže uživatel může dále zkoumat a zkoumat jako při tradičním vyhledávání.“

Dodali: „V případě otázek týkajících se lékařských rad vždy doporučujeme konzultaci se zdravotníkem.“

Zdroj: diabetes.co.uk

Sdílet:

Také by se vám mohlo líbit

Napsat komentář

Vaše e-mailová adresa nebude zveřejněna. Vyžadované informace jsou označeny *

Tato stránka používá Akismet k omezení spamu. Podívejte se, jak vaše data z komentářů zpracováváme..

My Agile Privacy
This website uses technical and profiling cookies. Clicking on "Accept" authorizes all profiling cookies. Clicking on "Refuse" or the "X" will refuse all profiling cookies. By clicking on "Customize" you can select which profiling cookies to activate.