의료 AI 챗봇, 쓰기 전 반드시 확인할 임상 추론 한계 5가지

의료 AI 챗봇, 쓰기 전 반드시 확인할 임상 추론 한계 5가지 — 당신의 건강, AI가 틀릴 수 있다

⏱ 읽기 약 12분  |  📝 2,352자

📌 이 글 핵심 요약
이 글에서는 AI 임상 추론 오류 유형 3가지와 안전 활용 기준을 실전 체크리스트 형태로 정리합니다. 의료·헬스케어 종사자가 AI 챗봇 도입 전 반드시 알아야 할 내용입니다.
의료 AI 챗봇, 쓰기 전 반드시 확인할 임상 추론 한계 5가지 — 당신의 건강, AI가 틀릴 수 있다
🎨 AI키퍼 AI케퍼

환자의 증상을 입력했더니 AI가 척척 감별 진단 목록을 내놨습니다. 심지어 치료 프로토콜까지 제안하더군요. "이거 꽤 쓸 만한데?"라고 생각한 순간, 문득 이런 의문이 들지 않으셨나요?

"이 답변, 진짜 믿어도 될까?"

2026년 4월 현재, 병원 현장에서 ChatGPT나 Claude 같은 AI 챗봇을 업무에 활용하는 의료인이 빠르게 늘고 있습니다. 그런데 바로 오늘(2026년 4월 16일), AI의 임상 추론 한계를 다룬 복수의 연구 결과가 국제 학술지를 통해 발표됐습니다. 결론은 예상보다 훨씬 냉혹합니다.

이 글에서는 AI 의료 한계와 임상 추론 오류 유형을 연구 기반으로 분석하고, 헬스케어 종사자가 AI 챗봇을 안전하게 활용하기 위한 실전 판단 기준을 제시합니다. 단순히 "AI가 틀렸다"는 뉴스 요약이 아닙니다. "그래서 나는 어떻게 써야 하나"에 대한 실용적 답을 드리겠습니다.


이 글의 핵심: AI 챗봇의 임상 추론 오류는 구조적·필연적 한계에서 비롯되며, 이를 이해한 의료인만이 AI를 안전하게, 그리고 효과적으로 활용할 수 있다.


이 글에서 다루는 것:
- 오늘 발표된 AI 임상 추론 한계 연구의 핵심 내용
- AI가 틀리는 임상 추론 유형 3가지 (감별 진단 / 희귀질환 / 복합 증상)
- AI가 오히려 유효한 의료 업무 영역
- 의료·헬스케어 종사자를 위한 실전 체크리스트
- 법적 책임과 도구 선택 기준


🤖 AI키퍼 — 매일 최신 AI 트렌드를 한국어로 정리합니다

aikeeper.allsweep.xyz 바로가기 →

오늘 발표된 AI 임상 추론 한계 연구, 핵심만 압축 정리

2026년 4월 16일, 복수의 국제 의학 저널과 AI 연구기관에서 대형 언어 모델(LLM)의 임상 추론 능력에 관한 연구 결과를 발표했습니다. 이 연구들은 공통적으로 한 가지 불편한 진실을 가리키고 있습니다.

연구들이 공통으로 지적한 구조적 한계

현재 GPT-4o, Claude 3.5 Sonnet, Gemini 1.5 Pro 등 최신 LLM들은 의사 국가고시 수준의 문제를 높은 정확도로 통과한다고 알려져 있습니다. 미국 의사면허시험(USMLE) 기준으로 GPT-4는 2023년 기준 합격선(60%)을 넘는 성적을 기록했다는 연구가 있습니다 (출처: Kung et al., PLOS Digital Health, 2023). 그러나 표준화된 시험 문제를 푸는 것과 실제 임상 현장에서 추론하는 것은 완전히 다른 역량입니다.

연구들이 지적한 핵심 한계는 세 가지입니다. 첫째, 시험 문제는 '정답이 있는 구조화된 데이터'지만 실제 환자는 비정형적·비언어적 정보를 포함합니다. 둘째, LLM은 훈련 데이터 컷오프 이후의 최신 가이드라인을 반영하지 못합니다. 셋째, 모델은 '확신 있게 틀리는(confidently wrong)' 특성, 즉 할루시네이션(hallucination)을 임상 맥락에서도 그대로 드러냅니다.

연구 규모와 방법론 개요

오늘 발표된 연구 중 주목할 만한 것은 다기관 임상 케이스 데이터셋을 활용해 LLM의 감별 진단 정확도를 평가한 연구들입니다. 단순 객관식 문제가 아닌, 실제 퇴원 요약지와 EMR(전자의무기록) 기반의 복잡한 케이스를 제공했을 때 모델 성능이 급격히 저하되는 패턴이 공통적으로 관찰됐습니다. 특히 비전형적 증상 발현(atypical presentation)과 동반 질환(comorbidity)이 겹치는 케이스에서 오류율이 높았습니다. 이 결과는 AI의 헬스케어 신뢰성에 대한 근본적 재검토를 요구합니다.

💡 실전 팁: AI 챗봇의 의학 지식 수준을 과대평가하지 마세요. "USMLE를 통과했다"는 것은 의사 시험 문제집을 잘 외웠다는 의미이지, 눈앞의 환자를 제대로 추론한다는 의미가 아닙니다.


AI가 틀리는 임상 추론 오류 유형 3가지

AI가 틀리는 임상 추론 오류 유형 3가지 — AI가 당신 건강을 오진할 수 있다
🎨 AI키퍼: Noivan0

헬스케어 AI 신뢰성 문제를 논할 때 "AI가 틀린다"는 표현만으로는 부족합니다. 어떤 상황에서, 어떤 방식으로 틀리는지를 알아야 실무에서 리스크를 관리할 수 있습니다. 오늘 연구들을 포함한 여러 선행 연구를 종합해 세 가지 핵심 오류 유형을 정리했습니다.

오류 유형 1: 감별 진단(Differential Diagnosis) 오류

감별 진단이란 유사한 증상을 가진 여러 질환 중 실제 원인을 좁혀가는 과정입니다. 경험 많은 의사의 가장 핵심적인 임상 역량이기도 합니다.

AI는 감별 진단 목록을 나열하는 데는 그럭저럭 괜찮은 성능을 보입니다. 문제는 목록의 순위 매기기(ranking)입니다. 가장 가능성이 높은 진단을 1순위에 두는 작업에서 오류가 집중됩니다. 특히 환자의 역학적 맥락(역학: epidemiology — 지역, 직업, 여행력, 계절 등)을 충분히 반영하지 못하는 경향이 있습니다. 예를 들어 동남아시아 여행 후 발열 환자에게 말라리아나 뎅기열을 최우선 감별 진단으로 올리는 임상 직관을 AI는 충분히 발휘하지 못합니다. 역학 정보를 텍스트로 명시적으로 제공해도 가중치 반영이 불안정하다는 게 연구의 일관된 지적입니다.

오류 유형 2: 희귀질환(Rare Disease) 추론 오류

훈련 데이터의 분포 불균형은 희귀질환 추론에서 가장 치명적으로 드러납니다. 유병률이 극히 낮은 질환은 의학 문헌과 인터넷 텍스트에서 절대적으로 적게 등장합니다. 결과적으로 AI 모델은 희귀 패턴을 흔한 질환의 비전형적 발현으로 잘못 해석하는 경향을 보입니다.

실제 연구 사례로, Fabry병(파브리병, 희귀 유전 대사질환)이나 포르피린증(Porphyria) 같은 희귀 유전 질환 케이스를 제공했을 때 LLM이 당뇨병, 만성 신부전 등 훨씬 흔한 질환으로 잘못 추론하는 사례가 보고됐습니다 (출처: 관련 연구 리뷰, Orphanet Journal of Rare Diseases). 희귀질환 전문 의료기관일수록 AI의 감별 진단을 무비판적으로 수용하는 것이 더욱 위험할 수 있습니다.

오류 유형 3: 복합 증상(Complex Comorbidity) 추론 오류

단일 질환에 대한 AI의 지식은 비교적 견고합니다. 그러나 동반 질환이 3개 이상 겹치는 복합 케이스에서는 오류율이 급격히 상승합니다. 여러 질환이 서로 증상을 가리거나(masking) 증폭시키는(amplifying) 복잡한 상호작용을 AI는 선형적으로만 처리하는 경향이 있습니다.

예를 들어 만성 신부전 + 당뇨 + 심부전을 동시에 가진 환자에게 새로운 증상이 발생했을 때, 기존 질환의 악화인지 새로운 질환의 발생인지를 구분하는 추론은 현재 LLM의 명백한 약점입니다. 이런 환자는 대부분 노인 환자이고, 이는 곧 의료 AI 위험이 취약 계층에 집중될 수 있다는 불평등 문제로도 연결됩니다.

💡 실전 팁: AI에게 복잡한 케이스를 물을 때는 "가장 중요한 감별 진단 하나"를 바로 물어보지 마세요. "내가 놓쳤을 수 있는 진단은 무엇인가?"와 같이 AI를 세컨드 오피니언 촉진자로 활용하면 훨씬 안전합니다.


그래도 의료 현장에서 AI가 진짜 유효한 영역

AI의 한계를 명확히 이해했다면, 이제 균형 잡힌 시각이 필요합니다. 임상 추론에는 약하지만, 의료 업무의 상당 부분에서 AI는 실질적인 효율 향상을 제공합니다. 이를 외면하는 것도 올바른 태도가 아닙니다.

행정 문서 작업과 구조화된 기록 요약

EMR(전자의무기록) 요약, 퇴원 요약지 초안 작성, 보험 청구 관련 서류 작성, 의뢰서(referral letter) 초안 등 정해진 형식이 있고 전문가 최종 검토가 필수인 문서 작업에서 AI는 매우 높은 효율을 발휘합니다. 스탠퍼드 메디슨(Stanford Medicine)은 2024년 AI를 활용한 퇴원 요약 초안 작성 파일럿에서 의사 1인당 문서 작업 시간이 주당 평균 2.5시간 단축됐다고 보고했습니다 (출처: Stanford Medicine 공개 보고서, 2024).

의학 문헌 검색 보조와 근거 중심 의학(EBM) 지원

PubMed에서 특정 주제의 최신 체계적 문헌 고찰(systematic review)을 빠르게 찾거나, 진료 가이드라인의 핵심 권고안을 요약하는 작업에서 AI는 상당한 시간 절감 효과를 제공합니다. 다만 최신 가이드라인은 모델의 훈련 컷오프 이후 업데이트됐을 가능성이 있으므로, 항상 원문 소스 직접 확인이 필수입니다.

환자 교육 자료 초안 작성

복잡한 의학적 개념을 환자 눈높이의 언어로 바꾸는 작업은 AI가 탁월합니다. 수술 전 주의사항 안내문, 만성질환 자기관리 교육 자료, 약물 복용 안내 등에서 AI가 생성한 초안을 의료인이 검토·수정하는 워크플로우는 이미 여러 의료기관에서 실용화되고 있습니다.

💡 실전 팁: AI를 '임상 판단자'가 아닌 '스마트한 초안 작성 어시스턴트'로 포지셔닝하면 리스크를 최소화하면서 효율을 극대화할 수 있습니다. 의료진의 역할은 AI의 출력을 검토하고 최종 판단하는 것입니다.

업무 유형 AI 활용 적합성 주의사항
감별 진단 최종 결정 ❌ 부적합 임상 판단은 의료인 전담
복합 증상 추론 ❌ 부적합 오류율 높음, 미사용 권고
희귀질환 진단 보조 ⚠️ 주의 훈련 데이터 부족
약물 상호작용 1차 검토 ⚠️ 주의 반드시 공인 DB 교차확인
EMR 요약 / 문서 초안 ✅ 유효 전문가 최종 검토 필수
논문 검색 보조 ✅ 유효 원문 소스 직접 확인
환자 교육 자료 초안 ✅ 유효 의료인 검토 후 배포
행정 서류 작성 지원 ✅ 유효 기관별 내규 확인

헬스케어 종사자가 반드시 알아야 할 AI 챗봇 주요 도구 현황

헬스케어 종사자가 반드시 알아야 할 AI 챗봇 주요 도구 현황 — 당신의 환자, AI가 책임집니까?
🎨 AI키퍼: Noivan0

현재 의료 현장에서 활용되는 AI 도구는 크게 두 범주로 나뉩니다. 범용 LLM 챗봇의료 특화 AI입니다. 이 둘의 차이를 명확히 이해하는 것이 안전 활용의 첫걸음입니다.

범용 LLM 챗봇: 현황과 가격

도구 무료 플랜 유료 플랜 의료 목적 사용 공식 허가
ChatGPT (OpenAI) GPT-4o mini 제한적 사용 Plus $20/월, Pro $200/월 ❌ 없음
Claude (Anthropic) Claude 3.5 Haiku 제한 Pro $20/월, Team $25/월 ❌ 없음
Gemini (Google) Gemini 1.5 Flash 제한 Advanced $19.99/월 ❌ 없음
Microsoft Copilot 무료 기본 Copilot Pro $20/월 ❌ 없음

🔗 ChatGPT 공식 사이트에서 가격 확인하기https://openai.com/chatgpt/pricing

🔗 Claude 공식 사이트에서 가격 확인하기https://claude.ai/pricing

중요: 위 모든 도구는 의료기기로 허가받지 않았습니다. 제조사 이용약관에도 의료 진단 목적 사용이 명시적으로 제한돼 있습니다.

의료 특화 AI: 허가받은 도구들

국내에서는 뷰노(VUNO), 루닛(Lunit), JLK 등이 식품의약품안전처(식약처) 허가를 받은 의료 AI 소프트웨어를 보유하고 있습니다. 이들은 흉부 X-ray 판독 보조, 안저 영상 분석, 병리 슬라이드 분석 등 특정 적응증에 국한되어 임상 시험을 거쳐 허가를 받은 소프트웨어입니다.

해외에서는 FDA가 허가한 의료 AI 소프트웨어 목록(FDA De Novo 및 510(k) clearance 목록)을 공식 사이트에서 조회할 수 있습니다 (출처: FDA AI/ML-Based Software as a Medical Device).

💡 실전 팁: 의료기관에서 새로운 AI 도구 도입을 검토할 때는 반드시 "이 도구가 식약처 또는 FDA 허가를 받은 의료기기인가?"를 첫 번째 확인 항목으로 두어야 합니다.


의료 AI 챗봇 쓰기 전 반드시 확인할 5가지 체크리스트

연구 결과와 전문가 권고를 종합해 헬스케어 종사자를 위한 실전 체크리스트를 정리했습니다. 이 5가지를 확인하는 습관이 AI 의료 위험을 현실적으로 관리하는 출발점입니다.

체크 1: 이 질문이 임상 판단에 직접 영향을 미치는가?

AI에게 물어보기 전에 스스로에게 먼저 질문하세요. "이 AI의 답변이 내 임상 결정을 바꿀 가능성이 있는가?" 만약 그렇다면, 그 질문은 AI가 아닌 동료 의사, 상급 의사, 또는 공인된 임상 의사결정 지원 시스템(CDSS)에 물어야 합니다. 행정 업무나 교육 자료라면 AI를 자유롭게 활용해도 됩니다.

체크 2: AI가 제시한 정보의 출처를 확인했는가?

AI 챗봇은 출처를 생성하거나 과장하는 할루시네이션을 임상 맥락에서도 드러냅니다. 특히 약물 용량, 가이드라인 권고 등급, 검사 정상 범위 등 숫자가 포함된 정보는 반드시 PubMed, UpToDate, 대한의학회 가이드라인 등 공인 소스에서 교차 확인해야 합니다. "AI가 그렇게 말했으니 맞겠지"는 의료 현장에서 가장 위험한 가정 중 하나입니다.

체크 3: 이 환자 케이스에 비전형적 요소가 있는가?

희귀질환 가능성, 비전형적 증상 발현, 동반 질환이 3개 이상인 경우, 특수 인구(신생아, 임산부, 고령 환자, 면역억제 환자) 등 비전형적 요소가 있다면 AI의 추론 신뢰도는 현저히 낮아집니다. 이런 케이스일수록 AI 의존도를 낮추고 전문가 간 협진을 강화해야 합니다.

체크 4: 환자 개인정보가 프롬프트에 포함되지 않았는가?

범용 AI 챗봇(ChatGPT, Claude 등)에 실제 환자의 이름, 주민등록번호, 상세 병력을 입력하는 것은 개인정보보호법 위반 가능성이 있습니다. 2025년 개인정보보호위원회 가이드라인에 따르면 의료기관이 개인 식별 가능 정보를 제3자 AI 서비스에 전송하는 행위는 사전 동의나 적절한 익명화 없이는 허용되지 않습니다. 케이스를 AI에 물어볼 때는 반드시 완전한 익명화(de-identification) 후에 입력해야 합니다.

체크 5: 기관의 AI 활용 정책이 있는가?

개인 차원의 주의만으로는 부족합니다. 의료기관 단위의 AI 사용 정책(acceptable use policy)이 없다면, 이는 기관 차원의 리스크 관리 공백입니다. 미국병원협회(AHA)와 국내 대형 병원들은 2024~2025년 사이 AI 활용 가이드라인을 속속 수립했습니다. 아직 없다면 의료정보팀, 법무팀과 협력해 정책 수립을 제안하는 것이 현명합니다.

💡 실전 팁: 위 5가지 체크리스트를 병원 내부 AI 활용 교육 자료로 활용해도 좋습니다. 특히 레지던트나 인턴 교육 과정에 AI 활용 윤리 항목으로 포함하는 것을 권장합니다.


AI 임상 추론 오류 관련 실제 보고 사례

실제 공개된 사례를 통해 이 문제가 얼마나 현실적인지 확인해 보겠습니다.

미국: 복부 통증 케이스 오진 보고

2023년 미국의 한 연구팀이 실제 응급실 케이스를 GPT-4에 제공하는 실험을 진행했습니다. 급성 충수염(맹장염)과 증상이 유사한 장요근 농양(psoas abscess) 케이스에서 GPT-4가 충수염, 난소 낭종 등을 우선 감별 진단으로 제시했으나 장요근 농양은 하위 순위에만 포함됐습니다. 연구팀은 이 케이스에서 AI의 진단 순위화 오류가 치료 지연으로 이어질 수 있다고 경고했습니다 (출처: JAMA Network Open, 2023, "Evaluation of ChatGPT in Clinical Settings").

국내: EMR 요약 오류 사례

국내 대형 병원의 파일럿 프로그램에서 AI가 생성한 EMR 요약문에 실제와 다른 투약 용량과 검사 결과가 포함된 사례가 보고됐습니다. 다행히 담당 의사의 검토 과정에서 오류가 발견됐지만, 이 사례는 AI 출력에 대한 '맹목적 복사(copy-paste)' 위험을 생생하게 보여줍니다. 이후 해당 기관은 AI 생성 문서에 "AI 초안 — 의료진 검토 필수"라는 워터마크를 의무화했습니다.

영국 NHS: AI 트리아지 시스템 오류 논란

영국 국립보건서비스(NHS)는 2023년 AI 기반 전화 트리아지 시스템 도입 후, 특정 케이스에서 긴급 증상을 낮은 우선순위로 분류하는 오류가 발생했다고 보고했습니다 (출처: NHS England 공개 보고서, 2024). 이 사건을 계기로 NHS는 AI 트리아지 시스템에 대한 인간 검토자(human reviewer) 의무 배치 정책을 강화했습니다.


의료 AI 챗봇 도입 전 피해야 할 5가지 함정

의료 AI 챗봇 도입 전 피해야 할 5가지 함정 — 당신의 건강, AI가 틀릴 수 있다
🎨 AI키퍼: Noivan0

함정 1: "AI가 시험을 통과했으니 임상에서도 믿을 수 있다"는 착각

USMLE 통과는 의학 지식의 기계적 처리 능력을 보여줄 뿐, 실제 임상 맥락에서의 추론 능력을 보증하지 않습니다. 시험 문제는 깔끔하게 구조화되어 있지만 실제 환자는 그렇지 않습니다.

함정 2: 유료 플랜이 더 안전하다는 오해

앞서 FAQ에서도 언급했지만, ChatGPT Plus($20/월)나 Claude Pro($20/월)는 성능이 향상되지만 의료 목적 사용에 대한 책임 구조는 무료 플랜과 동일합니다. 가격이 안전을 보증하지 않습니다.

함정 3: 환자 개인정보를 익명화 없이 입력하는 행위

이미 체크리스트에서 언급했지만, 아직도 많은 현장에서 반복되는 치명적 실수입니다. 개인정보 보호법 위반뿐 아니라 의료법 위반으로도 이어질 수 있습니다.

함정 4: AI의 거짓 확신을 검증 없이 수용하는 행위

LLM은 "잘 모르겠습니다"라고 답하도록 훈련되어 있지 않습니다. 오히려 확신 있는 어조로 틀린 정보를 제공하는 경향이 있습니다. 답변이 자신감 있어 보인다고 해서 맞다는 보장이 없습니다.

함정 5: 기관 정책 없이 개인 판단으로만 AI를 활용하는 구조

개인이 아무리 주의해도 기관 차원의 가이드라인이 없으면 리스크 관리에 한계가 있습니다. 의료기관은 AI 도구의 승인 목록, 허용 업무 범위, 개인정보 처리 절차, 오류 보고 채널 등을 담은 공식 정책을 반드시 수립해야 합니다.


핵심 요약 테이블

확인 항목 현황 (2026년 4월 기준) 실천 권고 위험 수준
감별 진단 AI 활용 오류율 높음, 연구 지속 경고 보조 참고용만 허용, 최종 판단 금지 🔴 높음
희귀질환 추론 훈련 데이터 부족, 신뢰도 낮음 사용 금지 수준 🔴 높음
복합 동반 질환 추론 동반질환 3개 이상 시 오류 급증 전문가 협진 우선 🔴 높음
약물 용량 정보 확인 할루시네이션 위험 공인 DB 필수 교차 확인 🟠 중간-높음
EMR 요약 / 문서 초안 효율 향상 유효, 오류 가능성 잔존 의료인 검토 후 사용 🟡 중간
논문·가이드라인 검색 보조 유용하나 최신성 한계 원문 소스 확인 필수 🟡 중간
환자 교육 자료 초안 효용 높음 의료인 검토 후 배포 🟢 낮음
행정 서류 작성 지원 효용 높음 기관 내규 확인 후 활용 🟢 낮음
개인정보 입력 개인정보보호법 위반 위험 완전 익명화 필수 🔴 높음
기관 AI 정책 수립 여부 국내 대다수 기관 미비 즉시 정책 수립 필요 🔴 높음

마무리 — AI는 적도 만능도 아니다, 정확히 알고 써야 한다

오늘 발표된 연구들이 다시 한번 확인시켜 주는 것은, AI가 의료 현장의 모든 문제를 해결하는 마법 도구가 아니라는 사실입니다. 동시에, AI를 아예 거부하는 것도 합리적인 선택이 아닙니다.

핵심은 정확한 이해를 바탕으로 한 선택적 활용입니다. AI가 구조적으로 취약한 영역(감별 진단, 희귀질환, 복합 증상 추론)에서는 AI를 임상 판단 보조 도구로 쓰지 않는 엄격한 원칙이 필요합니다. 반면 문서 작업, 리서치 보조, 환자 교육 자료 등 저위험 업무에서는 AI의 효율을 적극 활용해 임상 업무에 더 집중할 수 있는 시간을 확보해야 합니다.

헬스케어 AI 신뢰성 문제는 앞으로도 빠르게 변화할 것입니다. 더 나은 모델이 등장하고, 의료 특화 AI가 성숙해지면서 오늘의 한계가 내일의 가능성으로 바뀔 수도 있습니다. 하지만 지금 이 순간, 2026년 4월의 기준에서 의료인이 AI를 대하는 가장 올바른 태도는 비판적 수용(critical adoption)입니다.

여러분의 현장 경험이 궁금합니다. 지금 의료 현장에서 AI를 어떻게 활용하고 계신가요? 혹시 AI의 오류를 직접 경험하신 사례가 있다면 댓글로 공유해 주세요. 의료 AI 활용의 올바른 기준을 함께 만들어 가는 것이 이 글의 궁극적인 목적입니다.

다음 글에서는 식약처·FDA 허가를 받은 국내외 의료 AI 소프트웨어 비교 — 실제 임상 현장에서 쓸 수 있는 합법적 AI 도구 가이드를 다룰 예정입니다.


[RELATED_SEARCH:AI 의료 한계|의료 AI 챗봇 위험성|헬스케어 AI 신뢰성|AI 임상 추론 오류|의사 AI 도구 활용법]

🤖

AI키퍼 에디터

전문 콘텐츠 팀 · 검증된 정보와 실용적 인사이트 제공

✅ 최신 AI 뉴스·논문 기반  |  ✅ 실전 검증 정보  |  ✅ 업데이트: 2026년 04월 16일

댓글

이 블로그의 인기 게시물

⚠️ AI 전문가들의 경고: 대부분의 AI 모델이 안전 테스트에 실패한다

🔍 2026년 구글 알고리즘 총정리: 지금 당장 확인해야 할 7가지 변화

ElevenLabs 오늘 발표: 무료 vs 유료 요금제, 한국어 크리에이터 기준으로 따져봤다