Lifestyle

[동아광장/정소연]인간 전문가가 AI 답변의 검증 기계가 된 현실

기록을 읽다 한탄했다. “또 AI네.” 대규모언어모델(LLM) 인공지능(AI)의 접근성이 향상되면서, AI에게 간단한 질문을 던지고 받은 답변을 법적 분쟁에 그대로 제출하거나 이용하는 사례가 크게 늘어나고 있다. 일반인들이 주로 사용하는 챗GPT, 클로드, 제미나이 등의 AI 서비스는 LLM을 기반으로 한다. LLM이란 광범위한 인간 언어를 이해하고 번역해 자연어 처리된 텍스트를 생성하는 체계를 말한다. LLM은 옳은 지식이 아니라 맥락에 따른 확률적 결과를 보여준다. 이 때문에 논리적 인과관계가 필요한 일일수록 AI의 답변은 틀

동아일보
2026년 5월 1일·1분 소요
[동아광장/정소연]인간 전문가가 AI 답변의 검증 기계가 된 현실

Image: 동아일보

기록을 읽다 한탄했다. “또 AI네.” 대규모언어모델(LLM) 인공지능(AI)의 접근성이 향상되면서, AI에게 간단한 질문을 던지고 받은 답변을 법적 분쟁에 그대로 제출하거나 이용하는 사례가 크게 늘어나고 있다. 일반인들이 주로 사용하는 챗GPT, 클로드, 제미나이 등의 AI 서비스는 LLM을 기반으로 한다. LLM이란 광범위한 인간 언어를 이해하고 번역해 자연어 처리된 텍스트를 생성하는 체계를 말한다. LLM은 옳은 지식이 아니라 맥락에 따른 확률적 결과를 보여준다. 이 때문에 논리적 인과관계가 필요한 일일수록 AI의 답변은 틀릴 가능성이 높다. AI가 제시하는 답은 정답이 아니라, 많은 사람들이 그렇게 믿거나 사용해 온 말일 뿐이다. AI 사용으로 인한 왜곡은 이런 순서로 발생한다. 먼저 이용자가 AI에게 질문을 한다. “어쩌고저쩌고∼ 이건 부당해고가 아니야?” AI는 이 질문에 대해 “부당해고일 가능성이 높습니다”라고 답한다. 어쩌고저쩌고 부분을 논리적으로 판단하고 분석한

원문 기사

[동아광장/정소연]인간 전문가가 AI 답변의 검증 기계가 된 현실

게시자 동아일보

전체 기사 읽기