소식

마이크로소프트 부사장 빅 싱(vik singh): ai 챗봇은 "환상을 만드는 것"보다 "도움을 요청하는 법을 배워야" 합니다.

2024-09-02

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

it하우스 뉴스는 9월 2일자. 현지시간 9월 1일 agence france-presse에 따르면 마이크로소프트 빅 싱(vik singh) 부사장은 인터뷰에서 “솔직히 오늘날 (생성 ai)에 정말 부족한 역량은 바로, 모델이 자신의 답변이 정확한지 확신할 수 없으면 적극적으로 '잘 모르겠는데 도움이 필요해요'라고 말할 수 있습니다."

작년부터 microsoft, google 및 경쟁업체는 주문형으로 다양한 콘텐츠를 생성하고 사용자에게 "전지적 존재"라는 환상을 줄 수 있는 chatgpt 및 gemini와 같은 생성 ai 애플리케이션을 빠르게 배포해 왔습니다. 생성적 ai 개발의 발전에도 불구하고 여전히 "환각"을 일으키거나 답을 만들어낼 수 있습니다.

이미지 출처pexels

vik singh은 "정말 똑똑한 사람들"이 정답을 모를 때 챗봇이 "인정하고 도움을 요청"하도록 하는 방법을 연구하고 있다고 주장합니다.

한편, 클라우드 소프트웨어 대기업 세일즈포스(salesforce)의 ceo인 마크 베니오프(marc benioff)도 지난주에 많은 고객들이 마이크로소프트 코파일럿(microsoft copilot)의 오해를 불러일으키는 성능으로 인해 점점 더 좌절감을 느끼고 있다고 말했습니다.

it house는 최근 몇 년 동안 인공 지능이 활발하게 발전하고 챗봇과 같은 애플리케이션이 점차 대중화되고 있다는 사실을 알게 되었습니다. 사람들은 간단한 지침을 통해 이러한 챗봇(예: chatgpt)에서 정보를 얻을 수 있습니다. 그러나 이러한 챗봇은 여전히 ​​잘못된 답변을 제공하고 때로는 위험한 정보를 제공하는 '환각' 문제에 취약합니다. '환각'이 나타나는 원인 중 하나는 훈련 데이터의 부정확, 일반화 능력 부족, 데이터 수집 과정에서의 부작용 등이다.