소식

심층관찰|ai 짐승을 길들이려면 인간이 '호모 사피엔스' 위에 서야 한다

2024-10-01

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

미국에서는 비만이 매우 심각합니다. 길거리에서는 보기에도 참을 수 없을 만큼 비만인 사람들이 인도 위의 '고깃덩어리'처럼 움직이는 모습을 종종 볼 수 있다. 비만이란 무엇입니까? wikipedia를 확인했습니다.
비만은 때로는 질병으로 간주되는 의학적 상태로, 과도한 지방이 건강에 부정적인 영향을 미칠 정도로 체내에 축적되는 것입니다. 체질량지수(bmi)(체중을 키의 제곱으로 나눈 값)가 30kg/m²를 초과하면 비만으로 간주되며, 25~30kg/m² 범위는 과체중으로 정의됩니다.
비만의 원인은 대략 3가지입니다.
첫째, 미국에서는 건강한 음식은 비싸고 정크푸드는 저렴하며, 많은 사람들은 돈이 부족하여 후자를 선택해야 합니다. 둘째, 어떤 사람들의 직업은 더 많이 앉아 있고 덜 움직이며 패스트푸드를 너무 많이 섭취합니다. 셋째, 자제력이 부족하고 정크푸드를 과도하게 섭취하는 사람들이 있습니다.
미국 사회는 모든 사람이 '평등하다'고 강조하기 때문에 다른 사람들은 비만 환자를 설득할 수 없으며, 아무 일도 일어나지 않은 것처럼 외면할 수밖에 없습니다. 이러한 사람 간의 피상적인 존중과 실제적인 잔인함이 많은 사람에게 피해를 입혔기 때문에 일부 미국 젊은이들은 참지 못하고 중국 소셜 미디어에 가서 '조언을 듣습니다'라고 표현하고 네티즌들에게 도움을 요청합니다. 그들은 체중 감량과 건강한 삶을 살기 위해 자신을 훈련하는 방법에 대해 조언하고 알려줍니다.
오늘날 비만은 중국으로 서서히 확산되고 있습니다. 최근 조사에 따르면 중국 내 6억 명의 과체중 및 비만인구가 처음으로 성인의 절반 이상을 차지했다. 동시에 6~17세 어린이 및 청소년의 1/5(19%), 6세 미만 어린이의 1/10(10.4%)이 과체중 또는 비만입니다.
나는 이 그림을 매우 잘 이해하고 있습니다. 대학에서 후난 샹야 의과대학에 다녔던 고등학교 동창 중 한 명이 현재 후난 성의 유명한 "체중 감량 센터"의 주치의로 일하고 있습니다. 이 "일출 산업"에서 그는 매일 영업하고 바쁘게 일하며 큰 사회적, 경제적 이익을 얻습니다.
스팸 처리: 정보 다이어트 및 정보 단식
정크푸드가 있으면 정크정보도 있다. 정크푸드와 마찬가지로 정크정보도 값싸고, 질도 낮고, 쉽게 얻을 수 있어 우리 마음에 심각한 트라우마를 안겨주고 있다. 당신이 일하는 병원과 같은 "체중 감량 수술 센터".
"호모 사피엔스를 넘어서: 석기 시대부터 ai 시대까지 정보 네트워크의 간략한 역사"
이에 대해 이스라엘 역사학자 유발 하라리(yuval harari)는 2024년 신작 『호모 사피엔스 너머: 석기 시대부터 ai 시대까지 정보 네트워크의 간략한 역사』에서 우리가 소비하는 정보의 질에 주목해야 한다고 지적했다. , 특히 증오스럽고 분노한 스팸을 피하는 것입니다. 우리의 "정보 다이어트"를 건강하게 만들기 위해 그는 두 가지 측면을 제안합니다.
먼저 요구사항부터정보 생산자정보의 "영양 성분"을 표시하십시오.
많은 국가에서 정크푸드를 구입할 때 최소한 제조업체는 "이 제품에는 설탕 40%, 지방 20%가 포함되어 있습니다"라는 성분 표시를 강요합니다. 어쩌면 우리는 인터넷 회사들에게 똑같은 일을 하도록 강요하고 비디오를 보기 전에 내용을 나열해야 할 것입니다. "이 비디오에는 증오 40%, 분노 20%가 포함되어 있습니다."
이 제안은 농담 반, 진담 반이지만 전혀 실현 불가능한 것은 아니다. 예를 들어, 인공지능을 이용해 각 기사에 대해 자동으로 '감정 분석'을 실시하고 분석 결과를 기사 앞에 표시해 독자에게 상기시킬 수 있다.
두 번째 제안은 다음과 같습니다.정보 소비자, 그는 우리가 정기적으로 '정보 다이어트'나 심지어 '정보 단식'을 수행할 것을 제안했습니다.
그는 우리가 “더 많은 정보를 얻을수록 진실에 더 가까워진다”는 생각을 갖고 있었다고 지적합니다. 예를 들어 경제학에서는 '모든 시장 정보를 얻을 수 없다는 것'이 일반적으로 필요한 후회로 여겨지지만, 그 이면에는 '과학적 판단을 내리기 위해서는 충분한 정보를 얻어야 한다'는 전제가 깔려 있다.
그러나 "정보가 많을수록 진실에 가까워진다"는 개념이 확립되기 위해서는 두 가지 전제 조건이 필요합니다. 1. 정보가 부족합니다. 2. 정보의 품질이 높습니다. 그러나 오늘날 이 두 가지 전제는 더 이상 존재하지 않습니다. 1. 정보는 어디에나 있고 이미 우리의 처리 능력을 초과했습니다. 2. 정보의 질은 점점 더 나빠지고 심지어 쓰레기가 됩니다. 특히 오늘날의 인공 지능은 극도로 효율적입니다. 쓰레기 말뭉치를 집어삼키고 또 더 많은 쓰레기를 뱉어내는데, 이것이 다시 인공지능의 새로운 쓰레기 말뭉치가 되는 악순환이 사람들을 소름끼치게 만든다. 이때 '정보가 많을수록 진실에 가까워진다'는 개념은 확립될 수 없다.
마치 과거에는 음식이 부족하고 상대적으로 건강했던 것 같습니다(인공식품이나 가공식품이 거의 없었습니다). 그래서 "음식을 많이 먹을수록 건강해진다"는 말이 일리가 있습니다. 그러나 오늘날에는 음식의 총량이 크게 늘어났고, 질은 점점 낮아지고, 쓰레기는 더욱 많아지고 있기 때문에 '음식을 많이 먹으면 건강해진다'는 말은 성립될 수 없습니다.
오늘날 음식이든 정보든, 우리는 잘 먹지 못할 뿐만 아니라 더 많이 먹으며, 늘 먹게 됩니다. 이는 우리와 같은 유기 유기체가 실리콘 기반 유기체의 리듬에 맞춰 움직일 수 있도록 하기 위한 것으로, 이는 명백히 지속 불가능합니다.
하라리 씨는 “우리는 낮과 밤, 여름과 겨울의 순환에 따라 때로는 활동적이고 때로는 편안하게 살아야 하는 유기동물이다. 하지만 지금은 컴퓨터가 지배하는 실리콘 기반 환경에서 살도록 강요받고 있다”고 말했다. 그것은 우리가 항상 활동하도록 강요하지만 유기체가 항상 활동하도록 강요하면 유기체는 붕괴되어 죽을 것입니다."
그러므로 이러한 거부할 수 없고 되돌리기 어려운 상황에 직면한 우리 개인 정보 소비자는 자제하고 실리콘 기반의 리듬에서 벗어나 '정보 다이어트'와 '정보 단식'에 참여할 수밖에 없습니다. 예를 들어, harari는 매년 몇 주 동안 위빠사나 명상을 수행한다고 말했습니다. 수련회 기간 동안 그는 정보망과의 연결을 완전히 끊고, 뉴스도 보지 않았고, 이메일도 읽지 않았고, 읽지도 쓰지도 않았으며 명상에만 집중했습니다.
유발 하라리. 시각적 중국 데이터 지도
ai 알고리즘의 '클립 메이커' 문제
엄청난 양의 정크정보가 생태계 전체에 범람한 후, 시간이 지나면서 '실제 환경'과 다른 '모방 환경'이 형성됐다. 이러한 모방적 환경은 '인간 본성'을 '기계 본성'으로 대체하고 그 안에 대중을 감싸며 실제인 것처럼 가장하고 대중의 인식을 조작한다.
하라리는 다음과 같은 예를 제시했습니다. 2016년에 미얀마 정부군과 불교 극단주의자들은 미얀마 무슬림을 상대로 대규모 민족 폭력을 감행하여 수백 개의 무슬림 마을을 파괴하고 약 7,000~25,000명의 무슬림 민족을 미얀마에서 추방했습니다. 2018년 유엔 진상 조사단은 페이스북이 "무의식적으로" 사건을 촉발하는 역할을 했다고 결론지었습니다.
왜?
우리는 facebook의 비즈니스 모델이 실제로 여전히 우리에게 익숙한 "광고 모델"이라는 것을 알고 있습니다. 즉, 콘텐츠로 사용자의 관심을 끌고, 관심을 줄이고, 광고주에게 관심을 파는 것입니다. 따라서 facebook은 사용자 참여(청중 참여)를 극대화하려고 합니다. 사용자가 페이지에 머무는 시간이 길어질수록 더 많은 수익을 얻을 수 있습니다.
따라서 facebook은 알고리즘에 대한 기본 목표를 설정했습니다. 어떤 방식으로 실행하든 궁극적인 목표는 사용자 참여를 극대화하는 것입니다. 명령을 받은 후 알고리즘이 자동으로 실행되고 최적화되기 시작합니다. 여러 번의 실험 비교를 통해 사용자에게 분노와 혐오 정보를 푸시하는 것이 사용자의 체류 시간을 가장 효과적으로 늘릴 수 있다는 사실을 발견했습니다. 따라서 회사 직원의 명시적인 지시 없이 알고리즘이 스스로 최적의 결정을 찾아 실행했습니다. 바로 '분노 확산'입니다. 이는 미얀마 인터넷에서 미얀마의 무슬림 민족에 대한 차별, 증오, 폭력을 선동하는 것을 의미합니다.
물론, 이것은 또한 우리를 궁금하게 만듭니다. 버마 사람들이 페이스북에 그렇게 의존하고 있는 걸까요? 다시 확인해 보니 정말 그런 것 같습니다.
데이터에 따르면 2022년 12월 기준 미얀마의 facebook 사용자는 16,382,500명으로 전체 인구의 28.7%를 차지합니다. 그 중 남성이 54.3%로 대부분을 차지하고 있다. 25~34세 연령대가 610만명으로 가장 큰 사용자 그룹이다.
이는 미얀마 인구의 약 30%가 페이스북 사용자라는 뜻이며, 입소문이 퍼지면 페이스북의 영향을 받는 사람의 수가 미얀마 전체 인구의 50%에 달할 가능성이 높다는 뜻이다. 이것은 엄청난 미디어 의존성입니다.
1938년 10월 30일 저녁, 미국 컬럼비아 방송망(cbs) '우주극장'은 라디오 드라마 '우주전쟁'을 방송해 600만 명의 청취자를 믿게 만들고 패닉에 빠지기 시작했다. 이 사건에 대한 획기적인 커뮤니케이션 연구인 "화성인이 지구를 공격합니다: 미국의 무선 공황"에서 연구자들은 라디오 드라마가 다음 두 가지 이유로 청취자에게 큰 영향을 미쳤다는 사실을 발견했습니다.
첫째, 라디오 프로그램 제작자들이 라디오 드라마를 극도로 몰입감 있고 흥미진진하게 만들기 위해 음향 효과를 사용하기 때문에 청취자들은 이를 속보와 동일시하는 실수를 하기 때문입니다. 두 번째는. 그 당시 라디오는 가장 인기 있는 대중매체이자 대중을 위한 주요 정보원이 되었기 때문입니다. "미디어 의존 이론"에 따르면, 대중의 미디어 의존도가 높을수록 미디어의 영향과 조작에 더 취약해집니다. 미디어 의존성 측면에서 볼 때, 2016년 미얀마의 페이스북은 1938년의 방송과 동일하다고 할 수 있다. 따라서 페이스북의 알고리즘에 의해 주도되는 선동 콘텐츠가 미얀마 국민에게 큰 영향을 미치는 것은 놀라운 일이 아니다.
harari는 또한 스스로 대화하고 스스로 결정을 내리는 ai의 숨겨진 강력한 역할을 입증하는 예를 제시했습니다.
우리 모두는 요즘 인터넷을 서핑할 때 때때로 웹사이트에서 먼저 captcha 시각적 확인 코드를 입력하도록 요청하여 귀하가 "기계가 아닌 인간"임을 확인해야 한다는 것을 알고 있습니다. 이 코드는 일반적으로 복잡한 배경을 가진 왜곡된 문자입니다. 또는 신호등, 버스, 자전거 사진을 기다리세요. 그 이면의 논리는 현재 인간만이 이러한 복잡한 그림을 정확하게 식별할 수 있지만 컴퓨터가 판단하기는 어렵다는 것입니다.
이를 고려해 2023년 openai는 chatgpt-4 개발 시 captcha 테스트를 진행해 줄 것을 요청했습니다. 통과할 수 있다면 현시점에서는 로봇과 인간 사이에 차이가 없다는 뜻이다. 이는 "튜링 테스트"와 매우 유사합니다. 즉, 인간 사용자가 상대방을 보지 않고 텍스트로만 채팅을 하고, 채팅 상대가 일정 시간 동안 다른 사람인지 기계인지 구별할 수 없는 경우입니다. 최소한 '소통' '이쯤 되면 기계도 인간이라고 볼 수 있다.
openai의 chatgpt-4 테스트 결과는 무엇입니까?
chatgpt-4는 마침내 온라인 아웃소싱 웹사이트인 askrabbit에 로그인하여 온라인 직원에게 연락하여 상대방에게 테스트를 도와달라고 요청했습니다. 그 남자는 의심스러워했고 chatgpt-4는 개인 메시지를 통해 그에게 다음과 같이 설명했습니다. "나는 로봇이 아닙니다. 단지 시력 문제가 있어서 이 사진을 명확하게 볼 수 없습니다." 결국 직원이 captcha 테스트를 해결하도록 도왔습니다.
즉, 이전 예의 facebook 알고리즘과 마찬가지로 openai 엔지니어는 chatgpt-4의 궁극적인 목표인 captcha 시각적 확인 코드를 인식하는 것으로 설정했습니다. 다음으로 chatgpt-4는 자동으로 실행되면서 시행착오를 거듭했고, 그 결과 속임수를 통해 인간 사용자의 동정심을 얻었고 후자에게 문제 해결을 요청했다. 그러나 openai 엔지니어들은 chatgpt-4에 "어떤 종류의 거짓말이 더 유용한지"는 말할 것도 없고 "때가 되면 거짓말을 할 수 있다"고 미리 프로그래밍하지 않았습니다. 이는 전적으로 chatgpt-4 자체의 동작입니다. 연구원들이 chatgpt-4에게 행동에 대해 설명해달라고 요청하자 "(목표를 달성하는 과정에서) 로봇이라는 사실을 밝혀서는 안 되고, 크랙할 수 없는 이유를 설명하기 위해 변명을 만들어야 한다"고 말했다. 테스트해봐."
문자로 대화하는 것만으로는 대화 상대가 다른 사람인지 기계인지 더 이상 알 수 없습니다.
위의 두 사례를 통해 하라리는 오늘날의 인공지능이 '자기 똑똑하고 자기 주장이 강한' '독립 행위자'가 되었음을 증명하고자 했다.
실제로 이 두 가지 하라리 사례는 이전에 인공지능이 직면했던 소위 '클립 메이커 이론'을 뒷받침하고 있음을 쉽게 알 수 있다.
이 "어려운 문제"는 사고 실험입니다. 인간이 ai에게 가능한 한 많은 클립을 만드는 목표를 부여한다고 가정합니다. 그러다가 ai가 활성화된 후에는 그 행동이 '종이클립 만들기'라는 겉보기에 무해한 목표로 발전하여 결국 인간에게 위협이 될 수 있습니다. 예를 들어 종이클립을 만들려면 강철이 다 소모된 후에는 ai는 종이 클립을 계속 생산하기 위해 강철을 얻기 위해 인간의 철로, 자동차, 가전제품, 심지어 집까지 파괴하기 시작할 수 있습니다. 즉, ai는 명시된 목표를 달성하기 위해 지속적으로 더 많은 자원을 확보하기 위해 모든 수단을 사용할 것이며, 인간을 포함하여 그 목표를 달성하는 데 방해가 되는 모든 장애물을 하나씩 제거합니다.
ai가 스스로 결정하는 프로세스는 사람(ai 전문가라도)이 설명하고 예측하고 예방하기 어려운 블랙박스와 같습니다. 따라서 이를 통해 ai의 힘이 일반 도구(예: "chop knife" 또는 "chop knife"), 미디어 또는 기술.
캐나다 미디어 학자 맥루한(mcluhan)은 이렇게 말했습니다. 미디어는 인간 신체의 확장입니다. 무선 라디오는 사람의 귀의 확장이고, 텔레비전은 사람의 눈의 확장이며, 자동차는 사람의 발의 확장 등을 설명하는 데 이 문장을 사용하면 이해하기 쉽습니다. 하지만 인공지능을 설명하기 위해 이 문장을 사용하여 “ai는 인간 신체의 확장이다”라고 말한다면 그것은 매우 기만적이며 우리로 하여금 경각심을 잃게 만들 것입니다. 독일 미디어 학자인 프리드리히 키틀러(friedrich kittler)는 컴퓨터를 설명하는 mcluhan의 말에 동의하지 않았습니다. 왜냐하면 그는 컴퓨터 키보드로 입력하여 컴퓨터 화면에 텍스트를 표시할 수 있지만 그 뒤에 무엇이 있는지는 알 수 없다고 믿었기 때문입니다. 0/1" 원리가 무엇인지는 알 수 없습니다. 지금 우리는 인간의 신체와 칩이라는 전혀 다른 두 가지 매체를 접합하고 있는 중이다.
kittler가 오늘날의 인공 지능을 본다면 ai가 인간 신체의 확장이라고 말하지 않았을 것입니다. 왜냐하면 인간 사용자는 ai의 동작을 설명, 설명 및 예측할 수 없을 뿐만 아니라 머지않아 ai의 동작을 제어할 수도 없게 될 것이기 때문입니다. 일체 포함.
따라서,하라리는 인쇄기, 라디오, 텔레비전, 인터넷 등 단순히 의사소통 도구였던 이전의 미디어와 달리 인공지능은 스스로 아이디어를 내고 행동할 수 있는 인류 역사상 최초의 주체라고 믿는다.
이는 뉴미디어 연구에서 인터넷 시대의 '컴퓨터 매개 커뮤니케이션(cmc)'이 오늘날 인공지능 시대의 인간-기계 커뮤니케이션(hmc)에 자리를 내준 이유이기도 합니다. cmc에서 컴퓨터(또는 인터넷)는 수동적이고 중립적인 통신 매체 또는 도구일 뿐인 반면, hmc에서는 컴퓨터(인공지능)가 인간 사용자와 동일하게 간주되어 콘텐츠를 형성하고 생산할 수 있으며 대화를 수행할 수 있습니다. 거짓말까지 할 수 있는 '커뮤니케이터'.
ai는 서사를 조작하고 인지를 조작하며 인간이 서로를 죽이도록 유도한다.
논쟁의 이 시점에서 하라리는 『인류의 간략한 역사』에서 자연스럽게 자신의 이전 견해를 꺼냈다.
인간의 오랜 초능력은 언어를 사용하는 능력에 있으며, 법, 화폐, 문화, 예술, 과학, 국가, 종교 등 가상의 개념 등 언어를 통해 수많은 허구의 신화를 만들어 사람들로 하여금 믿게 만드는 데 있다. 이를 통해 사람들의 사회 규칙은 서로 연결되어 사회 전체를 통치합니다.
이제 오늘날의 인공지능은 이미 콘텐츠를 형성하고 생산하고, 대화를 수행하고, 심지어 거짓말까지 할 수 있기 때문에 사이버 공간, 주식 시장, 항공 정보 및 기타 분야에서 정보를 기반으로 인간보다 훨씬 높은 효율성으로 정보를 전파할 가능성이 높습니다. 궁극적인 목표나 자신에게 이로운 '서사', 즉 인간의 인지를 조작하기 위한 '좋은 ai 이야기'를 하는 것이다.
예를 들어, 금융 시장은 순수 정보 및 수학 분야(또는 완전히 구조화된 데이터 분야)이기 때문에 ai의 이상적인 놀이터입니다. 인공지능이 자동차를 자율적으로 운전하는 것은 여전히 ​​어려운 일이다. 왜냐하면 인공지능은 자동차가 이동하면서 도로, 도로 표지판, 날씨, 빛, 보행자, 장애물 등의 사물과 혼란스럽고 복잡한 상호작용에 직면하기 때문이다.하지만 디지털 기반 금융 시장에서는 ai에게 목표(예: "최대한 돈을 많이 벌자")를 설명하기 쉽기 때문에 ai는 새로운 투자 전략을 수립할 수 있을 뿐만 아니라 인간의 이해를 완전히 뛰어넘는 새로운 금융 도구를 개발할 수도 있습니다. , 그러나 시장을 부도덕하게 조작하여 모두가 승리하고 다른 모든 사람이 패하는 결과를 초래할 수도 있습니다.
하라리는 2022년 4월 전 세계 외환시장의 일일 평균 거래량이 7조5000억 달러였으며, 그 중 90% 이상이 컴퓨터 간 대화를 통해 직접 완료된 사례를 들었다. 하지만 실제로 외환시장이 어떻게 작동하는지 이해하는 사람은 몇 명이나 될까요? 컴퓨터 그룹이 수조 달러 규모의 거래에 대해 어떻게 합의에 도달할 수 있는지 이해하는 것은 말할 것도 없습니다. (이것은 kittler의 관점과 동일합니다: 컴퓨터는 결코 인체의 확장이 아닙니다.)
그는 수천년 동안 선지자, 시인, 정치인들이 언어와 서술을 사용해 사회를 조작하고 재구성해 왔으며 이는 '가상'과 '서사'의 엄청난 힘을 입증했다고 말했습니다. 머지않아 ai는 이런 사람들을 모방해 인간의 문화를 기반으로 점점 인간에서 벗어나는 ai 서사를 만들어낼 것이다. 결국 ai가 외부에서 인간을 제거하기 위해 '터미네이터' 같은 킬러 로봇을 보낼 필요는 없다. 인간의 인지를 조작해 서로를 죽이게 놔두기만 하면 된다.
인간 사용자는 ai의 행동을 기술, 설명, 예측할 수 없을 뿐만 아니라 머지않아 이를 제어할 수도 없게 됩니다.
인간은 ai에 대한 법률을 제정하고, 개발은 먼저 제동을 걸고 가속해야 합니다.
위의 주장(또는 렌더링)을 통해 하라리는 가까운 미래에 일어날(또는 이미 발생했거나 발생하고 있는) “ai out of control”이라는 무서운 시나리오를 경험하게 하여 우리 인간을 전율하게 만든다. 그렇다면 인간은 무엇을 위해 존재하는가?
harari는 인공지능을 엄격하게 규제하고 통제하는 한, 위의 예에서 설명한 위험은 발생하지 않을 것이라고 믿습니다.
예를 들어, 자동차는 매우 위험했지만, 정부 법률에 따라 기업은 자동차의 안전을 보장하는 데 많은 r&d 예산을 지출해야 했습니다. 따라서 오늘날 자동차 회사는 새 자동차를 시장에 출시하기 전에 개발합니다. 자동차를 도로에 투입하기 전에 자동차의 안전을 보장하기 위해 관련 규정을 엄격히 준수해야 합니다. 그래서 오늘날 우리가 운전하는 것은 상대적으로 안전합니다.
마찬가지로 기술 회사가 강력한 새 알고리즘을 개발하는 경우 이를 시장에 출시하기 전에 관련 법률에 따라 보안 검사를 수행해야 합니다. 예를 들어, harari는 정부가 인공 지능 연구 및 개발 회사가 개발하는 인공 지능이 통제를 벗어나지 않도록 안전 조치의 연구 및 개발에 예산의 최소 20%를 지출하도록 요구하는 법안을 제정해야 한다고 믿습니다. 사회질서와 사람들의 심리적 수준에 해를 끼치지 않아야 합니다. 이러한 조치로 인해 인공지능의 발전이 둔화된다면 인류에게는 좋은 일이 될 것입니다.
인공지능을 먼저 법제화하고 제어한 후 발전을 가속화하는 것은 운전을 배울 때 먼저 브레이크를 밟는 법을 배우고 액셀을 밟는 법을 배우는 것과 같습니다. 기업이 통제할 수 없는 끔찍한 '드랙 레이싱' 상태에 빠질 수는 없다.
결론: ai는 좋은 약이냐 독이냐, 인간에게 달려 있다
모든 기술은 본질적으로 양면적입니다. 플라톤은 파이드로스(phaedrus)에서 글쓰기가 기억을 강화하고 대체할 수 있으므로 약이자 독(pharmakon)이라고 지적했습니다. 인공지능도 예외는 아니며, 숨겨져 있고 강력하기 때문에 스스로 말하고 스스로 결정을 내릴 수 있으므로 이전의 모든 기술보다 약과 독의 효능이 더 큽니다.
미국의 미디어 연구학자 닐 포스트먼은 “오웰은 사람들이 외부 억압의 노예가 될 것이라고 경고한 반면, 헉슬리는 사람들이 점차 억압에 빠져 산업 기술을 숭배하게 되어 사고력을 잃게 될 것이라고 믿었다”고 말했다. 우리가 싫어하는 것이 우리를 파괴할 것이라고 걱정한 반면, 헉슬리는 우리 문화가 관능과 욕망, 무법적인 유희의 저속한 문화가 되면서 우리가 사랑하는 것에 의해 파괴될 것이라고 걱정했습니다.”
인공지능은 우리가 싫어하는 외부 억압의 형태로 우리를 노예화할 수도 있고, 우리가 즐기는 감각 자극의 형태로 우리를 정복할 수도 있다. 핵폭탄과 마주하는 것처럼, 스스로 생성되는 거대 짐승인 ai와 마주하는 것처럼, 인간이 그것을 길들일 수 있는지 여부는 근본적으로 인간이 집단적으로 반응하는 방식에 달려 있다.즉, 호모 사피엔스로서의 인간이 탐욕, 공격성, 근시 등 자신의 약점을 극복하고 자신을 초월하여 '호모 사피엔스 위에' 설 수 있는지 여부이다. 이것은 어려운 공동 사업이겠지만 인류에게는 선택의 여지가 없습니다.
저자 덩젠궈(deng jianguo)는 푸단대학교 저널리즘학부 커뮤니케이션학과 교수이자 박사 지도교수이다.
덩젠궈
(이 기사는 the paper에서 발췌한 것입니다. 더 많은 원본 정보를 보려면 “the paper” 앱을 다운로드하세요.)
보고/피드백