빙(Bing), AI 데모실연 과정중 몇 가지 오류 발생
Bing
지난 주 마이크로소프트의 인공지능(AI) 기반검색인 빙(Bing)의 공개 데모실연 과정 중 몇 가지 오류가 포함된 것으로 밝혀진 가운데, 챗GPT 또는 인공지능이 탑재된 새로운 검색엔진이 직면할 수 있는 위험성 또한 강조되고 있는 것으로 알려졌다.
마이크로소프트 본사 건물에서 시행된 챗GPT가 장착된 빙의 데모실연은 대화형태의 복잡한 검색결과를 제공할 수 있다는 가능성을 보여주기도 했지만, 인터넷상에서 판매되고 있는 상품 비교에서 정확하지 않은 정보를 내 놓았을 뿐만 아니라, 여행관련 정보에 관해서도 사실과 전혀 다른 결과를 제시했던 것으로 전해졌다.
마이크로소프트는 성명을 통해 “우리는 이러한 사실들을 알고 있으며 해당되는 문제 해결을 위한 분석작업에 몰두하고 있다. 사실상, 우리는 아직 해야 할 일이 남아 있다는 것을 알고 있으며, 데모기간 중에 발생한 시스템 오작동을 통해 문제점을 발견하고, 검색 이용자들이 겪었던 오류들에 대한 피드백을 취합해 전반적인 시스템 개선을 이루어 나갈 계획을 가지고 있다”고 말했다.
구글 또한 지난 주 챗GPT와 유사한 바드(Bard)라는 인공지능 형태의 검색엔진 테스트과정에서 오류가 발생하자 구글 모회사인 알파벳의 주가는 1,000억달러 이상의 손실을 본 것으로 알려졌다. 그러나 마이크로소프트의 주식은 빙 검색엔진의 오류가 보고된 이후에도 큰 변동이 없었던 것으로 전해졌다.
놀랍도록 설득력 있는 에세이와 사용자 질문에 대한 응답을 인간처럼 할 수 있는 챗GPT의 입소문 성공 덕분에 점점 더 많은 기술회사들이 유사한 기술을 도입하기 위해 엄청난 경쟁을 벌이고 있다. 그러나 사용자 질문에 정확한 결과물이 주어져야만 의미가 주어지고 가치가 보존되는 검색엔진의 속성상, 챗GPT 기반의 빙이 검색결과에서 계속 정확하지 않은 결과물을 내 놓을 경우, 인공지능 검색에 대한 실효성 문제가 크게 대두될 가능성이 높아질 것으로 보인다.
전문가들은 사용자 질문에 대한 결과물을 얻기위해 온라인에 있는 방대한 양의 데이터를 학습하는 인공지능 형태의 검색시스템은 신뢰할 수 없는 것으로 이미 결론내렸다. 뉴욕 대학교의 컴퓨터 과학자이자 빅데이터 분석가인 로라 에델슨(Laura Edelson)은 “AI가 권위있게 들리는 것과 실제로 정확한 결과를 내는 것은 전혀 다른 문제”라고 말했다.
