오픈AI “2년내 환각성 답변 사라진다. GPT-4는 예측 머신”

reporter-profile
박원익 2023.03.23 16:00 PDT
오픈AI “2년내 환각성 답변 사라진다. GPT-4는 예측 머신”
젠슨 황 엔비디아 CEO(왼쪽)와 일리야 수츠케버 오픈AI 수석 과학자(오른쪽)이 대담을 나누고 있다 (출처 : Nvidia)

[GTC2023] 젠슨황 엔비디아 CEO와 일리야 수츠케버 오픈AI 수석 과학자 대담
●GPT-4도 현실 왜곡 오류 해결 못해
●GPT-4는 좋은 단어 예측기
●AI 오류 막는 가드레일 나올 것
●AI도 시각적으로 세상 이해해야 텍스트 한계 넘어서
●AI가 AI가 생성한 데이터를 학습하는 시대 올 것
●방법은 안다. 필요한건 시간과 데이터.

일리야 수츠케버 오픈AI 공동창업자 겸 수석과학자는 3월 22일(현지시각) 진행된 젠슨 황 엔비디아 CEO와의 대담에서 “향후 2년 내에 많은 발전을 보게 될 것”이라며 이같이 말했다. 가까운 미래에 ‘할루시네이션(hallucination, 환각)’을 해결할 수 있다고 예측한 것이다. 

오픈AI, 구글 등이 선보인 ‘챗GPT(ChatGPT)’, ‘바드(Bard)’ 같은 대화형 AI, 거대언어모델(LLM)은 사람처럼 말(text, 텍스트)을 만들어내는 강력한 성능을 내지만, 그와 동시에 할루시네이션 문제를 일으킨다는 비판을 받아왔다. 

할루시네이션이란 2018년 구글 AI 연구원들에 의해 대중화된 개념으로 AI가 제시한 그럴듯해 보이는 답변(output)이 실제로는 잘못됐거나 부정확해 혼동을 초래하는 현상을 말한다. 언어모델은 빈칸에 들어갈 말을 예상해 채우는 방식으로 작동하는데, 관련 데이터가 부족하거나 모호할 경우 이런 현상이 나타난다.

실제로 챗GPT와 대화를 나눠보면 잘못된 답을 제시하는 사례가 적지 않다. 정보 수집, 교육 등의 목적으로 활용하려면 사실 확인 및 검증이 필요하다.

회원가입 후 뷰스레터를
주 3회 무료로 받아보세요!

단순 뉴스 서비스가 아닌 세상과 산업의 종합적인 관점(Viewpoints)을 전달드립니다. 뷰스레터는 주 3회(월, 수, 금) 보내드립니다.