교황청 신앙교리부와 문화교육부은 1월 28일, 인공지능(AI)과 인간 지능의 관계에 관한 참고할 만한 '대단한' 문서를 발행했다. “AI란 지능의 인위적인 형태가 아니라 지능의 산물 중 하나입니다.”라는 정의로 교육, 경제, 노동, 건강, 인간 및 국제 관계, 전쟁 상황에서의 잠재력과 도전 과제 등을 폭넓게 살펴보는, 그동안 교회가 인공지능에 대해 연구하고 염려하고 주장했던 바를 집대성한 문서이다.
AI를 사람으로 간주해서는 안되며, 신격화되어서도 안되며, 인간 관계를 대체해서도 안되며, "인간 지능을 보완하는 도구로만 사용되어야 합니다." 최근 몇 년간 인공지능에 대한 교황의 경고는 교황청 신앙교리부와 문화교육부의 상호 성찰에서 비롯된 인공지능과 인간 지능의 관계에 관한 문헌인 '오래된 그리고 새로운 지혜(Antiqua et Nova)'의 개요를 구성하고 있다. 이 문서는 부모, 교사, 사제, 주교 및 신앙을 교육하고 전수하도록 부름받은 사람들뿐만 아니라 '인간과 공동선을 위해'[5] 과학 기술 발전의 필요성에 공감하는 사람들도 대상으로 삼고 있다. 오늘 1월 28일에 발표된 이 문서는 교황의 승인을 받았다.
총 117개 항으로 구성된 'Antiqua et Nova'(오래된 그리고 새로운 지혜를 언급하는)는 교육, 경제, 노동, 건강, 국제 및 대인관계, 전쟁 상황에서 인공지능(AI) 발전의 도전과 기회를 강조한다. 예를 들어, 후자의 영역에서 인공지능의 잠재력은 '인간의 통제 범위를 훨씬 넘어서는' 전쟁 자원을 증가시켜 '인권에 치명적인 결과를 초래하는 불안정한 군비 경쟁'을 가속화할 수 있다고 경고한다.[99항]
위험과 진행 상황
좀 더 자세히 설명하자면, 이 문서는 인공지능의 위험성과 함께 “눈에 보이는 창조물을 완전하게 만드는 데 있어” 인간과 하느님의 “협력 부문”으로서 실제로 장려하는 발전에 대해서도 합리적으로 균형 있게 나열하고 있다.[2] 그러나 “고조되는 진리의 위기”[3]에 영향을 미칠 위험이 있는 텍스트와 이미지의 생성처럼 현재로서는 그 피해가 미미해 보이는 것조차도 그 영향을 아직 예측할 수 없는 모든 혁신에 대한 우려는 매우 크다.
AI와 인간 지능의 구별
따라서 인공지능과 인간 지능을 “확실하게” 구분하는 것에 교황청의 두 부서는 여러 단락을 할애하며 윤리적, 인류학적 성찰을 핵심으로 삼고 있다. “관계 속에서 작동하는 것”[18]은 하느님에 의해 설계되었고 “육체 속에서 살아온 무수한 경험에 의해 형성됩니다." AI는 “이런 의미에서 진화할 능력이 부족합니다."[31] 그리고 이는 '기능주의적 관점'으로, 직업과 업적으로만 사람을 평가하지만, 인간의 존엄성은 피할 수 없는 것이며 항상 그대로 유지된다고 강조한다. 심지어 '태어나지 않은 아이', '의식이 없는 상태의 사람' 또는 '고통받는 노인'의 경우에도 마찬가지[34]라고 설파한다. “따라서 인공지능과 관련하여 '지능'이라는 단어를 사용하는 것은 '오해의 소지가 있다'고 할 수 있습니다. 인공지능은 '지능의 인공적인 형태가 아니라 '그 산물중 하나'이기 때문입니다."[35]
소수의 손에 쥐어진 권력
그리고 인간의 다른 모든 창의성의 산물과 마찬가지로 AI도 '긍정적이거나 부정적인 목적'을 향해 나아갈 수 있다고 Antiqua et Nova는 지적한다. 이 문서는 인공지능이 다양한 분야에서 '중요한 혁신'을 가져올 수 있다는 사실을 부정하지는 않지만[48], 이것이 소외, 차별, 빈곤, '디지털 격차', 사회적 불평등[52] 상황을 악화시킬 수 있는 위험에 대해 경고하고 있다. “윤리적 우려"를 제기하는 것은 무엇보다도 ‘AI의 주요 응용 분야에 대한 대부분의 권한이 몇몇 강력한 기업의 손에 집중되어’[53] "이 기술이 ‘개인 또는 기업의 이익’을 위해 또는 ‘한 부문의 이익을 위해 여론을 조종’하기 위해 조작될 수 있다는 사실입니다."[53]
전쟁
이 문서는 인공지능과 관련된 다양한 삶의 영역을 살펴본다. 전쟁에 대한 언급은 피할 수 없다. AI의 '분석 능력'은 국가가 평화와 안전을 추구하는 데 도움이 될 수 있지만, '인간의 직접적인 개입 없이'[100] '도덕적 판단 없이' 목표물을 식별하고 공격할 수 있는 자율적이고 치명적인 무기 시스템은 '윤리적 우려의 심각한 원인'이 될 수 있다. 교황은 이탈리아 풀리아에서 열린 G7 회의에서 "어떤 기계도 인간의 생명을 빼앗는 것을 선택해서는 안 된다"며 이러한 기계의 사용을 금지할 것을 긴급히 촉구했습니다. "자율 정밀 살상이 가능한 기계와 대량 살상이 가능한 기계는 '인류 또는 전체 지역의 생존'에 실질적인 위협이 됩니다."[101] 이러한 기술은 '전쟁에 통제할 수 없는 파괴력을 부여하며, 어린이도 망설이지 않고 많은 무고한 민간인에게 영향을 미친다'고 문서는 비난했다. 인류가 '자멸의 소용돌이'에 빠지는 것을 막기 위해서는 “인간의 생명과 존엄성을 본질적으로 위협하는 모든 기술 적용에 대해 분명한 입장을 취해야 합니다.”라고 간절하게 호소하고 있다.
인간 관계
인간 관계에 대해 이 문서는 AI가 “연결을 촉진”할 수 있지만 동시에 “해로운 고립”을 초래할 수 있다고 지적한다.[58] “AI의 의인화”도 챗봇의 경우와 마찬가지로 “실용적인 방식으로 인간 관계를 이해”하도록 권장되는 어린이 성장에 특별한 문제를 제기한다[60]. 따라서 AI를 사람으로 표현하는 것은 '잘못된' 행위이며, 부정한 목적으로 그렇게 하는 것은 '심각한 윤리적 위반'이다. “성의 영역을 포함한 교육이나 인간관계와 같은 다른 맥락에서 AI를 사용하여 '속이는것은' 매우 비윤리적이며 신중한 경계가 필요합니다.”[62]
경제 및 노동
경제-금융 영역에서도 동일한 경계가 요구된다. 특히 노동 분야에서는 AI가 한편으로는 기술과 생산성을 높이고 새로운 일자리를 창출할 수 있는 '잠재력'을 가지고 있지만, 다른 한편으로는 “노동자의숙련도를 떨어뜨리고 자동화된 감시의 대상이 되며 경직되고 반복적인 기능으로 강등”[67]시켜 혁신 역량을 '억압'할 수 있다는 점에 주목하고 있다. “기술 발전으로 인간의 노동을 점점 더 많이 대체하려고 해서는 안 된다. 그렇게 하면 인류 자체에 해를 끼칠 수 있다"고 문서는 강조한다.[70]
건강
건강 관리 주제에 많은 공간이 할애되었다. 인공지능은 의료 분야의 다양한 응용 분야(예: 진단 활동 보조)에서 엄청난 잠재력을 가지고 있지만, 의사와 환자의 관계를 대체하고 상호 작용을 기계에만 맡긴다면 '질병에 자주 동반되는 외로움을 악화'시킬 위험이 있다. 또한 자원의 최적화가 “가장 취약한 사람들에게 불이익을 주거나” “편견과 차별의 형태”[75]를 만들어 경제적 여유가 있는 사람들은 고급 예방 도구와 개인화된 의료 정보의 혜택을 누리는 반면 그렇지 못한 사람들은 기본적인 서비스조차 이용하기 어려운 “부자를 위한 의료”를 강화하는 결과를 초래해서는 안 된다고 문서는 말한다.
교육
교육 분야에서의 위험성도 강조하고 있다. AI는 신중하게 사용된다면 교육에 대한 접근성을 높이고 학생들에게 '즉각적인 피드백'을 제공할 수 있다[80]. 문제는 많은 프로그램이 “학생들이 스스로 답을 찾거나 직접 텍스트를 작성하도록 유도하는 대신 단순히 답을 제공”하기 때문에 정보를 축적하거나 비판적 사고를 개발하는 훈련을 잃게 된다고 지적한다.[82] 일부 프로그램이 얼마나 많은 '왜곡되거나 조작된 정보' 또는 '부정확한 콘텐츠'를 생성하여 가짜 뉴스를 합법화할 수 있는지는 말할 것도 없다고 경고한다.[84]
가짜 뉴스와 딥페이크
가짜 뉴스와 관련하여 이 논문은 AI가 “조작된 콘텐츠와 허위 정보를 생성”[85]하여 사실과 다른 콘텐츠를 실제처럼 보이게 하는 '환각'을 일으킬 수 있는 심각한 위험에 대해 상기시킨다. 더욱 우려스러운 것은 이러한 허구의 콘텐츠가 의도적으로 조작 목적으로 사용되는 경우라 하며, 딥페이크 이미지, 비디오 및 오디오(수정되거나 알고리즘으로 생성된 표현)가 '속이거나 해를 끼치기 위해' 의도적으로 유포되는 경우[87]가 이에 해당한다고 예를 들었다. 따라서 “증오와 편견을 부추기고, 인간 성의 아름다움과 친밀감을 훼손하며, 약하고 무방비 상태의 사람들을 착취하는 것”[89]을 극히 경계해야 할 뿐 아니라, 어떤 경우에도 “인간을 비하하는 말과 이미지를 공유하는 것”을 피하고 공개되는 내용의 “진실성을 확인하는 데 항상 주의”할 것을 호소하고 있다.
프라이버시, 통제, 종교의 자유
프라이버시와 통제에 관해서는 특정 유형의 데이터가 개인의 친밀감, “심지어 양심까지도 건드릴 수 있다”고 지적한다.[90] 이제 데이터는 최소한의 정보로 수집되며, 그 위험은 모든 것이 “감시와 감시를 당할 수 있는 일종의 스펙터클”이 될 수 있다는 것이라고 진단했다.[92] 또한 “디지털 감시는 신자들의 삶과 신앙의 표현을 통제하는 데 사용될 수 있다”고 경고한다.[90]
공동의 집
창조라는 주제에서 공동의 집과 관계를 개선하기 위한 AI의 적용은 “유망한” 것으로 간주했다. "기상이변 예측, 구호 관리 또는 지속 가능한 농업 지원을 위한 모델만 생각하면 됩니다."[95] 동시에 현재의 AI 모델과 이를 지원하는하드웨어는 '막대한 양의 에너지와 물을 필요로 하며 CO2 배출에 크게 기여할 뿐만 아니라 자원 집약적'이라고 통찰하며, 따라서 '일반 가정에 미치는 영향을 줄이기 위해서는 지속 가능한 솔루션의 개발이 필수적'이라는 점을 강조하고 환경에 '막대한' 영향을 미칠 수 있음을 강조했다.
하느님과의 관계
"하느님을 자신의 손으로 만든 작품으로 대체하려는 것은 우상숭배입니다." 이 문서는 성경을 인용하여 AI가 ‘전통적인 우상보다 더 유혹적일 수 있다’고 경고한다.[105] 따라서 인간에 대한 ‘창백한 반영’에 지나지 않는다”고 진단하면서 “신격화되고 숭배되는 것은 AI가 아니라 인간이며, 이런 식으로 자신의 일에 노예가 되는 것입니다."라 했다. 그리고 결론적으로 “AI는 인간의 지능을 보완하는 도구로만 사용되어야 하며, 그 풍요로음을 대체해서는 안 됩니다.”[112]라는 말로 맺었다.