기사로 배워보는 스웨덴어
한국어 기사

AI, 질병 증상 관련 답변 시 심각한 위험 초래

(원문제목: Stora risker när AI ger svar om sjukdomssymtom)

AI, 질병 증상 관련 답변 시 심각한 위험 초래

AI, 질병 증상 관련 답변 시 심각한 위험 초래

대부분의 사람들은 해서는 안 된다는 것을 알면서도, 질병 증상에 대해 인터넷 검색을 하는 경향이 있습니다. 검색 결과가 사소한 증상조차 심각한 질병의 징후로 나타낼 수 있다는 위험이 있습니다. 하지만 '닥터 구글'이 은퇴하고 훨씬 더 자신감 넘치는 동료인 AI 봇으로 대체될 예정인 지금, 무슨 일이 벌어질까요?

AI 봇의 위험성

AI 연구원 아리엘 에크그렌은 "이러한 도구들이 실제로 어떻게 작동하고 무엇을 하는지에 대한 일반적인 지식이 부족할 수 있습니다."라고 말합니다.

최근 스웨덴 남부 지역 신문인 Sydsvenskan말뫼 정신과 환자 중 일부가 Chat GPT와의 대화로 인해 망상이 심화되었다고 보도했습니다. 이 신문에 따르면, AI 봇은 환자의 현실에 대한 정신병적 생각을 지지했을 뿐만 아니라, 망상을 부추기고 발전시켰습니다. AI 봇과의 대화가 개인의 극단적인 선택으로 이어진 사례가 있다는 사실도 이전에 알려진 바 있습니다.

이러한 심각한 결과는 흔한 일은 아니지만, 현재 AI 문제에 많은 초점을 맞추고 있는 중환자 의사이자 스웨덴 의사 협회 디지털화 위원회 의장인 라르스 로크센은 일반 대중이 증상에 대한 질문에 답하기 위해 AI 봇에 의존하는 것을 강력히 반대합니다. 그는 그것이 큰 위험을 수반한다고 생각합니다.

AI의 한계와 위험성

그는 사실, 이 문제는 구글과 같은 검색 엔진의 사용과 함께 이미 시작되었지만, AI의 등장으로 더욱 심화되었다고 말합니다. 그가 보는 위험은 두 가지 방향으로 나타납니다. 첫째, 사람들은 심각한 질병이 있다고 확신하게 되어 불필요한 두려움을 느끼고, 결국 불필요한 고가의 복잡한 검사를 받게 될 수 있습니다. 둘째, 환자가 안심할 만한 답변을 얻고 너무 늦게 치료를 받게 될 수도 있습니다.

로크센은 다음과 같이 말합니다. "언어 모델은 인터넷 전체, 즉 모든 것을 수집합니다. 과학, 의견, 심지어 순수한 환상까지 구분하지 않고, 가장 가능성이 높은 단어 시퀀스를 기반으로 답변을 구성합니다." 그는 이어서 "언어 모델은 또한 안전하고 설득력 있는 답변을 제공하도록 설계되었습니다. 정보를 분류하고 해석하려면 의료 교육을 받은 사람이 필요합니다. 환자가 스스로 사용하는 것과는 거리가 멉니다."라고 덧붙였습니다.

AI 기술의 긍정적 측면

라르스 로크센은 위험성을 경고하는 동시에, AI 기술이 책임감 있는 방식으로, 그리고 'a human in the loop'(AI 개발 언어)와 함께 도입된다면 의료 분야에서 큰 기회를 제공한다고 말합니다. 즉, 결정을 내리는 데 의료 교육을 받은 사람이 참여해야 한다는 것입니다.

페르 호글룬드는 스톡홀름의 아동 및 청소년 정신과 의사이자 수석 의사입니다. 그는 라르스 로크센이 지적한 위험을 인지하면서도, 긍정적인 사례를 보았기 때문에 AI 컨설팅을 반대하지 않습니다.

그는 "장점이 단점보다 크다고 생각합니다. AI는 초안을 제공하지만, 정보는 평가되어야 합니다. 아직까지는 답변이 완벽하지 않을 것입니다."라고 말합니다.

페르 호글룬드와 그의 동료들은 AI 봇이 정신병과 관련된 망상을 부추긴 경험은 없지만, AI가 자살 충동을 표현하는 경우와 같은 안전 메커니즘을 갖는 것이 중요하다고 강조합니다. 그는 의사, 심리학자 등에게 연락하도록 안내하는 자동 응답을 의미합니다.

그는 "제가 약간 테스트해 본 결과, 적어도 Chat GPT는 현재 그러한 기능을 갖추고 있으며, 그러한 경우 의료 서비스로 연결하지만, 이 분야에서는 지속적인 개발이 필요합니다. 또한 어떤 AI 모델을 사용하는지에 따라 다르게 보입니다."라고 말합니다.

AI 활용에 대한 전문가 의견

일반 의학 전문의이자 환자 안전 분야 연구원인 리타 페른홀름 역시 환자들이 자신의 몸과 건강에 대한 지식을 얻기 위해 AI를 사용하는 것에 대해 전반적으로 긍정적인 시각을 가지고 있습니다. 그녀는 2월에 자신의 저서 "의사에게 가서 질문에 대한 답을 얻는 기술"을 출간했습니다. 이 책을 통해 그녀는 환자들이 의료 서비스에서 올바른 정보를 찾고 적절한 도움을 받을 수 있도록 안내하고자 했습니다.

그녀는 "AI를 통해 얻을 수 있는 좋은 정보가 많지만, 의사와 함께 상담하는 것이 좋습니다."라고 말합니다.

그녀는 또한 일부 지역에서 1177을 통해 제공되는 챗봇에 대해서도 언급했는데, 이 챗봇은 일부 비판을 받았습니다. SVT Gävleborg은 이 문제에 대해 보도했습니다.

그녀는 "그것은 그다지 좋지 않습니다. AI 봇은 간호사가 전화로 지원할 때 사용하는 의사 결정 지원을 따릅니다. 그러나 간호사는 AI가 파악할 수 없는 어조, 호흡과 같은 미묘한 신호를 감지합니다."라고 말합니다.

아리엘 에크그렌은 AI Sweden에서 언어 기술 연구원으로 일하고 있습니다. 그는 현재의 언어 모델이 의학적 질문에 답하는 데 꽤 능숙하다고 말합니다. 많은 학술 테스트에서 이를 보여줍니다.

그는 "그들은 많은 의학 정보를 가지고 있지만, 가장 큰 문제는 그들을 완전히 신뢰할 수 없다는 것입니다."라고 말합니다.

AI의 미래와 과제

동시에 그는 AI가 많은 기회를 가져오고, 환자들이 예를 들어 의사 방문 전에 도움을 받을 수 있다는 점에서 조심스럽게 긍정적이라고 말합니다. 단, 환자가 비판적인 시각을 가지고 제한 사항을 이해하며, 다양한 모델이 서로 다른 '지능'을 가지고 있다는 것을 전제로 합니다.

그는 "어떤 면에서는 AI 개발과 관련하여 초기 단계에 있으며, 이러한 도구들이 실제로 어떻게 작동하고 무엇을 하는지에 대한 일반적인 지식이 부족할 수 있습니다."라고 말합니다.

의견 åsikter
중급
그는 이 문제에 대한 자신의 의견을 말했습니다.
Han berättade sina åsikter om frågan.
위험을 수반하다 förenat med
중급
그것은 큰 위험을 수반합니다.
Det är förenat med stora risker.
의료 교육을 받은 사람 vårdutbildning
중급
정보를 해석하려면 의료 교육을 받은 사람이 필요합니다.
Det behövs en person med vårdutbildning för att tolka informationen.
문제 problem
초급
이것은 큰 문제입니다.
Det här är ett stort problem.
초안 utkast
중급
AI는 초안을 제공하지만 정보는 평가되어야 합니다.
AI ger ett utkast, men informationen behöver värderas.
제한 사항 begränsningarna
중급
환자는 AI의 제한 사항을 이해해야 합니다.
Patienten måste förstå AI:s begränsningar.

De flesta av oss googlar säkerligen sina sjukdomssymtom, trots att det sägs att man inte borde.

Risken finns att träffarna indikerar att även milda symtom skulle kunna vara ett tecken på det värsta.

Men frågan är vad som händer nu, när doktor Google verkar vara på väg att gå i pension och ersättas av sin betydligt mer självsäkra kollega – AI-boten.– Det kanske saknas allmänbildning om hur de här verktygen egentligen funkar och vad de gör, säger AI-forskaren Ariel Ekgren.

Nyligen uppmärksammade Sydsvenskan att vissa patienter inom psykiatrin i Malmö hade fått sina vanföreställningar förstärkta av konversationer med Chat GPT.

AI-boten gav enligt tidningen inte bara stöd till personens psykotiska idéer om verkligheten, utan underblåste och utvecklade dessutom vanföreställningarna.

Att det finns skräckexempel där konversationer med AI-botar har bidragit till att personer har avslutat sina liv har tidigare uppmärksammats.

Sådana allvarliga konsekvenser hör kanske inte till vanligheterna, men Lars Rocksén, intensivvårdsläkare och ordförande i Läkarförbundets digitaliseringsråd, som just nu fokuserar mycket på AI-frågan, avråder starkt människor i allmänhet från att vända sig till botarna för att få svar på frågor om sina symtom.

Han menar att det är förenat med stora risker.

Problemet är egentligen inte nytt resonerar han, utan kom redan med användandet av sökmotorer som Google, men har förstärkts i och med AI:s inmarsch.

Riskerna han ser går åt två håll.

Det kan dels handla om att människor blir bekräftade i sin uppfattning om att de har en allvarlig sjukdom, vilket kan leda till obefogad rädsla och i förlängningen dyra eller komplicerade utredningar i onödan.

Men också om att en person som är sjuk får ett lugnande besked som gör att man söker vård för sent.

– Språkmodellerna samlar ju in hela internet, precis allting.

De gör ingen skillnad på vad som är vetenskap, åsikter eller till och med rena fantasier och bygger ett svar baserat på den mest sannolika ordsekvensen, säger Rocksén och fortsätter: – Språkmodellerna är ju också byggda för att leverera säkra och övertygande svar.

Det behövs en person med vårdutbildning för att sortera informationen och tolka den.

Det är väldigt långt ifrån att det ska fungera för patienter själva att använda.

Lars Rocksén är vice ordförande i Läkarförbundet och ordförande i förbundets digitaliseringsråd Foto: Emma Wallskog/Bildbyrån Samtidigt som Lars Rocksén flaggar för risker så menar han att AI-tekniken ger stora möjligheter i vården, om den införs på ett ansvarsfullt sätt och med "a human in the loop", som man säger på AI-utvecklingsspråk.

Alltså en vårdutbildad människa inblandad som fattar besluten.

Pär Höglund är barn- och ungdomspsykiatriker och överläkare på bup i Stockholm.

Även han ser de risker som Lars Rocksén pekar på, men vill ändå inte avråda från att konsultera AI eftersom han har sett goda exempel.

– Jag tycker att fördelarna överväger nackdelarna.

AI ger ett utkast, men informationen behöver värderas.

Svaren kommer än så länge inte att bli helt rätt, säger han.

Pär Höglund och hans kollegor har inte någon erfarenhet av att AI-botar ska ha underblåst vanföreställningar i samband med psykoser, men han betonar vikten av att AI har säkerhetsmekanismer om någon exempelvis ger uttryck för självmordstankar.

Med det menar han ett automatiskt svar som hänvisar till att kontakta en läkare, psykolog eller liknande.

– Jag har testat lite och min uppfattning är att i varje fall Chat GPT numera har det och hänvisar till vården i sådana fall, men det behövs fortsatt utveckling på det området.

Det ser ju också olika ut beroende på vilken AI-modell man använder, säger han.

Även Rita Fernholm, specialistläkare i allmänmedicin och forskare på området patientsäkerhet, ser överlag positivt på att patienter använder AI för att få kunskap om sin kropp och sin hälsa.

I februari kom hennes bok "Konsten att gå till doktorn och gå därifrån med dina frågor besvarade".

Med den ville hon guida patienter till att hitta rätt i vården och få rätt hjälp.

– Det finns mycket bra information att få när man rådfrågar AI, men man kan gärna göra det tillsammans med sin läkare, säger hon.

Rita Fernholm är verksam som läkare och forskar om patientsäkerhet.

Foto: Privat Hon nämner också den chatbot som finns via 1177 i vissa regioner och som har fått en del kritik, vilket bland annat SVT Gävleborg har rapporterat om.

– Den är ju inte speciellt bra.

AI-boten följer beslutstödet som sjuksköterskorna använder när de ger stöd via telefon.

Men sjuksköterskan uppfattar ju tonfall, andhämtning och sådana subtila signaler som AI inte förmår plocka upp, säger hon.

Ariel Ekgren jobbar på AI Sweden, som forskare med inriktning på språkteknologi.

Han menar att dagens språkmodeller är ganska bra på att svara på medicinska frågor.

Det finns det många akademiska tester som visar.

– De har mycket medicinsk information i sig, men den stora utmaningen är ju att man inte kan lita på dem helt och hållet.

Samtidigt menar han att han är försiktigt positiv, eftersom AI för med sig mycket möjligheter och kan underlätta för patienter inför till exempel läkarbesök, under förutsättning att patienten är källkritisk och förstår begränsningarna och att olika modeller är olika "smarta".

– På ett sätt är vi ju i ett ganska tidigt skede när det gäller AI-utvecklingen och det kanske saknas en allmänbildning om hur de här verktygen egentligen funkar och vad de gör, säger han.

Ariel Ekgren forskar om språkmodeller på AI Sweden.

Foto: Pressbild AI Sweden Läs mer: Open AI tvingas backa – Chat GPT var för fjäskig Man tog sitt liv – efter att ha chattat med AI-robot