AI 환각은 불가피하다, 어떻게 대처해야 할까?
2024-08-15
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
장하이인공지능(AI) 기술이 비약적으로 발전하면서 인공지능에 의한 정보 처리 및 생성 과정에서 나타나는 오류나 착각, 즉 'AI 환상'은 무시할 수 없는 문제로 대두됐다. 2023년에는 "환각"이 Cambridge Dictionary와 Dictionary.com의 올해의 단어가 되었습니다. Dictionary.com에 따르면 2023년에는 '환각'이라는 단어에 대한 검색이 전년 대비 46% 증가했습니다. 케임브리지 사전에서 "환각"의 원래 정의에 "보통 의학적 상태로 인해 또는 약을 복용했기 때문에 존재하지 않는 것을 보고, 듣고, 느끼거나 냄새를 맡는 것"이라는 새로운 의미를 추가했습니다. AI 환각은 오류 메시지를 생성합니다."최근 "Nature" 잡지의 "Machine Behavior" 논문에서는 인공 지능이 오늘날 인간 사회에 널리 퍼져 있다고 지적했습니다. 뉴스 순위 알고리즘은 사람들이 보는 정보에 영향을 미치고, 소비 알고리즘은 사람들이 구매하는 소비재에 영향을 미치며, 택시 호출 알고리즘도 영향을 미칠 것입니다. 우리의 여행 패턴과 스마트 홈 알고리즘이 우리 가족 생활에 영향을 미칠 것입니다. 법률, 의료 및 기타 분야에서 인공 지능의 영향은 더욱 커집니다. 인공지능을 통해 기계는 점점 더 인간처럼 생각하고 행동할 수 있습니다. 결과적으로 기계는 점점 더 인간 사회의 구조에 영향을 미치고 있으며, 인간도 기계의 행동을 형성하는 방식은 미래 사회 형태에 중요하고 광범위한 영향을 미칠 것입니다.인공지능 시대에 AI 환각은 흔한 현상이 됐다. 자율주행차의 오판 가능성부터 스마트 비서의 지시 오역, 의료 진단 도구의 오진까지 AI 환상은 우리 일상 곳곳에 존재합니다. 2024년 Google 검색 엔진은 AI가 생성한 답변을 제공하는 인공지능 검색 서비스인 AI 개요를 출시했습니다. 원래 의도는 사용자 경험을 개선하는 것이었지만, 사용자는 곧 AI 개요가 접착제를 사용하여 피자를 붙일 것을 제안하고 영양분을 얻기 위해 매일 돌을 먹도록 제안하는 등 터무니없는 답변을 많이 제공한다는 것을 곧 알게 되었습니다. 일부 기능을 빠르게 종료합니다.인공지능 과학자의 관점에서 볼 때, AI 환각은 인간 인지의 기술적 한계와 결함으로 인해 본질적으로 피할 수 없는 현상입니다. AI의 정확성과 신뢰성을 높이기 위해 기술자들이 열심히 노력하고 있지만, AI 환상은 여전히 빈번하게 발생하고 있으며, 불완전한 데이터, 알고리즘의 한계, 복잡한 상호작용 환경 등의 요인으로 인해 완전히 제거하기는 어렵습니다.AI 환각의 메커니즘은 여러 측면을 포함합니다. 우선, 데이터 편향이 주된 원인 중 하나다. AI 훈련 데이터에 다양성이 부족하거나 체계적 편향이 있는 경우 출력 결과가 환각적일 수 있다. 둘째, 현재의 AI 알고리즘, 특히 통계에 기반한 알고리즘은 보이지 않는 새로운 상황에 완벽하게 적응할 수 없어 잘못된 판단으로 이어질 수 있습니다. 셋째, 인간 디자이너의 인지적 한계도 큰 문제입니다. 디자이너와 트레이너의 주관적 편견이 AI 시스템에 의도치 않게 인코딩되어 의사 결정에 영향을 미칠 수 있습니다. 마지막으로 AI 시스템이 작동하는 대화형 환경은 변수로 가득 차 있다. 복잡하고 변화하는 환경 요인은 AI 시스템의 처리 능력을 초과해 AI 환각을 발생시키는 경우가 많다.AI 환각의 편재성과 불가피성을 어떻게 처리할 것인가? 첫째, 데이터 품질과 다양성을 높이는 것이 기본이다. 훈련 데이터의 폭과 깊이를 높임으로써 데이터 편향을 줄이고 AI 시스템의 일반화 능력을 향상시킬 수 있습니다. 둘째, 알고리즘 설계를 최적화하고 견고성과 적응성을 강화하면 AI 시스템이 새로운 상황에 더 잘 대처할 수 있습니다. 셋째, 사용자 교육과 인식을 개선하는 것도 중요합니다. 사용자가 AI의 기능과 한계를 올바르게 이해하도록 돕는 것은 오해로 인한 착각을 효과적으로 줄일 수 있습니다. 또한 AI의 개발 및 적용이 윤리적, 법적 표준을 준수하도록 윤리적 규범과 감독 메커니즘을 확립하는 것도 AI 환각 발생을 줄이는 데 똑같이 중요합니다. 마지막으로, 학제간 협력은 AI 환각을 다루는 데 핵심적인 역할을 합니다. 엔지니어, 데이터 과학자, 심리학자, 윤리학자, 법률 전문가는 AI 시스템의 설계 및 평가 과정에 공동으로 참여하고, 각 분야의 전문적인 관점에서 AI 환상 문제를 공동으로 해결해야 합니다.인공지능 시대에 AI 환각은 복잡하고 공통적이며 피할 수 없는 문제이므로 이를 해결하기 위해 다차원적이고 다단계 전략을 채택해야 하며 이를 통해 AI 환각의 부정적인 영향을 최소화해야 합니다. 유네스코가 2023년 발표한 '교육 및 연구에서의 생성적 인공지능을 위한 가이드라인'에서는 교실에서 인공지능 도구를 사용할 수 있는 최소 연령을 13세로 설정할 것을 권장하고 있다. 오픈AI는 13세 미만 어린이의 생성 인공지능 사용을 금지하고, 13~18세 어린이는 보호자의 지도 하에 사용해야 한다고 권고하고 있다.신뢰할 수 있는 미디어 서밋(Trusted Media Summit)은 2023년 싱가포르에서 개최되어 젊은이들의 미디어 활용 능력을 향상시키기 위해 다양한 국가에서 취한 조치를 공유할 예정입니다. 예를 들어, 초등학생을 대상으로 미디어 리터러시 능력을 향상시키기 위해 웹사이트와 팟캐스트를 기반으로 해외에서 시작한 공공 복지 활동인 'SQUIZ KIDS'는 젊은이들이 인터넷에 나타나는 잘못된 정보와 허위 정보를 구별하는 능력을 키우는 데 도움이 됩니다. 크게 네트워크 정보 노출 시 STOP, 생각해 보기(THINK), 마지막으로 신뢰할 수 있는 정보 소스와 일치하는지 확인하기 위한 쌍 확인(CHECK)의 세 단계로 구성됩니다. 다양한 분야의 지식과 기술을 모아 보다 종합적으로 문제를 파악하고 해결책을 찾음으로써 보다 스마트하고 안전하며 신뢰할 수 있는 인공지능 사회의 도래를 기대할 수 있습니다. (저자는 동북사범대학교 미디어과학과 교수, 길림성 교육인공지능 통합혁신공학센터 소장) ▲