지난 14일, 프란치스코 교황이 역사상 처음으로, 세계에서 가장 경제발전을 이룬 7개국 정상들이 참석하는, G7 정상회의에 참석했다. 올해 모임은 이탈리아 남부 풀리아에서 열렸는데, 주체국 이탈리아의 첫 여성 수상 조르지아 멜로니가 이 모임에 프란치스코 교황을 초대한 것이다. 이 자리에서 교황은 인공지능이 인류 미래에 미치는 영향이라는 주제로 연설을 했고 그 전문을 번역하여 살레시오 가족들에게 제공한다.
----
매혹적이고도 두려운 도구: 인공지능이 인류의 미래에 미치는 영향
존경하는 신사 숙녀 여러분!
저는 오늘 G7 정부 간 포럼의 지도자 여러분을 모시고 인공지능이 인류의 미래에 미칠 영향에 대해 말씀드리고자 합니다.
"하느님께서 인간에게 당신의 영을 부어 주시어 '재능과 총명과 온갖 일솜씨'(탈출 35,31)를 채워 주셨다고 성경은 증언합니다."[1] 따라서 과학과 기술은 인간 지능의 창조적 잠재력이 빚어낸 성과입니다.[2] 하느님이 우리에게 주신 이 창조적 잠재력을 활용함으로써 인공지능이 탄생하게 된 것입니다.
잘 알려진 바와 같이 인공지능은 의학에서 직업 세계, 문화에서 커뮤니케이션, 교육에서 정치에 이르기까지 인간이 노력하는 많은 분야에서 사용되는 매우 강력한 도구입니다. 그리고 이제 인공지능의 사용이 우리의 생활 방식과 사회적 관계, 그리고 미래에는 인간 정체성을 생각하는 방식에도 점점 더 영향을 미칠 것이라고 생각하는 것이 합리적입니다.[3]
그러나 인공지능이라는 주제는 종종 양면적인 것으로 인식됩니다. 한편으로는 그것이 제공하는 가능성에 흥분하고, 다른 한편으로는 그것이 예고하는 결과에 대한 두려움을 불러 일으킵니다. 이와 관련하여 우리 모두는 정도의 차이는 있지만 두 가지 감정이 교차한다고 할 수 있습니다. 즉, 인공지능이 가져올 수 있는 발전을 상상하면 열광하지만, 동시에 그 사용에 내재된 위험을 볼 때 두려움을 느낍니다.[4]
또한, 인공지능의 출현은 복잡한 시대적 변화를 특징으로 하는 새로운 사회 시스템을 만드는 데 기여할 진정한 인지 산업 혁명이 될 것이라는 데 의심의 여지가 없습니다. 예를 들어, 인공지능은 지식 접근의 민주화, 과학 연구의 비약적 발전, 고된 일을 기계에 위임할 수 있는 가능성 등을 열러줄 수 있지만, 동시에 선진국과 개발도상국, 지배층과 피지배층 사이의 불공정을 심화시켜 '만남의 문화'가 ' 배척의 문화'로 대체될 위험에 놓이게 할 수도 있습니다.
이러한 복잡한 전환의 정도는 분명히 인공지능 자체의 급속한 기술 발전과 관련이 있습니다.
인공지능을 매혹적이면서 동시에 엄청난 도구로 만들며 이에 걸맞은 고도의 성찰을 필요하게 하는 것은 바로 이러한 엄청난 기술의 발전입니다.
이러한 입장에서 인공지능은 무엇보다도 도구라는 인식에서 출발할 수 있습니다. 그리고 그것이 가져올 혜택이나 해악은 그 사용에 따라 달라질 것이라는 것은 말할 필요도 없습니다.
인류가 태초부터 만들어온 모든 도구가 그러했으니 이는 분명한 사실입니다.
인간은 생명체 중 그 누구도 따라올 수 없는 양과 복잡성으로 도구를 제작할 수 있는 능력을 가졌기 때문에 테크노-인간이라고 말할 수 있습니다. 인간은 점진적으로 생산한 도구를 매개로 환경과 항상 관계를 유지해 왔습니다. 인간과 문명의 역사를 이러한 도구의 역사와 분리해서 생각할 수는 없습니다. 어떤 사람들은 이 모든 것에서 인간의 부족, 결핍을 읽어내고자 했으며, 마치 이러한 결핍 때문에 인간은 기술을 탄생시켰다고 주장하기도 합니다[5]. 신중하고 객관적으로 살펴보면 실제로는 그 반대입니다. 우리는 생물학적 존재와 관련하여 불완전한 상태, 즉 저 너머를 향해 근본적으로 열려 있는 존재입니다. 따라서 이곳으로부터 타인과 하느님에 대한 우리의 개방성, 문화와 아름다움에 대한 우리 지능의 창조적 잠재력, 그리고 궁극적으로 우리의 기술적 역량이 비롯됩니다. 따라서 기술은 이러한 우리의 초월성을 보여주는 흔적입니다.
그러나 우리가 사용하는 도구가 항상 선한 방향으로만 사용되는 것은 아닙니다. 자기 내면에서 형제자매와 공동의집을 위한 선의 도구로 살면서 초월과 지식에 대한 소명을 느낀다고 해도(교의헌장 기쁨과 희망, 16항 참조), 항상 그렇게 되는 것은 아닙니다. 반대로, 드물지 않게 인류는 근본적인 자유로 인해 자신과 지구의 적으로 변해 존재의 목적을 왜곡해 왔습니다.[6] 기술 도구에도 같은 운명이 닥칠 수 있습니다. 인간을 위한 봉사의 소명이 보장될 때에만 기술 도구는 인간의 위대함과 고유한 존엄성뿐만 아니라, 지구와 그것에 사는 모든 주민을 "가꾸고 보호하라"(창 2:15 참조)는 사명도 드러낼 수 있을 것입니다. 기술에 대해 이야기한다는 것은 인간이란 무엇이며, 따라서 자유와 책임 사이에 있는 우리의 유일한 조건, 즉 윤리에 대해 이야기하는 것입니다.
우리 조상들은 편암을 갈아 돌칼을 만들었을 때, 옷의 가죽을 자르거나 서로를 죽이는 데 모두 사용했습니다. 태양에서 발생하는 핵융합으로 생성되는 에너지와 같이 훨씬 더 발전된 다른 기술도 마찬가지입니다. 이 에너지원은 깨끗하고 재생 가능한 에너지를 생산하는 데 사용될 수 있지만, 지구를 잿더미로 만드는 데도 사용될 수 있습니다.
그러나 인공지능은 훨씬 더 복잡한 도구입니다. 거의 도구 그 자체라고 할 수 있습니다. 따라서 단순한 도구(예: 칼)의 사용은 그것을 사용하는 인간의 통제 하에 있고 그 도구의 적절한 사용 여부는 오직 후자에 달려 있지만, 인공지능은 자신에게 주어진 작업을 자율적으로 처리할 수 있으며, 이러한 방식으로 설계된다면 설정된 목표를 달성하기 위해 인간과 무관하게 선택을 할 수 있습니다.[7]
기계가 특정 형태와 이러한 새로운 수단을 통해 알고리즘 선택을 할 수 있다는 점을 항상 기억해야 합니다. 기계가 하는 일은 더 큰 가능성 중에서 기술적 선택을 하는 것이며, 잘 정의된 기준이나 통계적 추론에 기반합니다. 반면에 인간은 선택할 뿐만 아니라 마음속으로 결정할 능력이 있습니다. 결정은 선택의 보다 전략적인 요소라고 할 수 있으며 실질적인 평가가 필요합니다. 때로는 통치라는 어려운 일에서 우리는 많은 사람들에게 영향을 미치는 결정을 내려야 할 때가 있습니다. 인간의 성찰은 항상 이와 관련하여 지혜에 대해 이야기해 왔으며, 그리스 철학의 어원이며 적어도 부분적으로는 성경의 가르침이기도 합니다. 독립적으로 선택할 수 있는 것처럼 보이는 기계의 위력에 직면하여 우리는 때때로 우리 삶에서 극적이고 긴급한 목소리로 외치듯, 결정의 몫은 언제나 인간에게 남겨져야 한다는 것을 분명히 해야 합니다. 사람들이 자신과 자신의 삶에 대해 결정할 수 있는 능력을 빼앗고 기계의 선택에 의존하도록 만든다면, 인류는 절망적인 미래를 맞이하게 될 것입니다. 우리는 인공지능의 프로그램 선택 과정에서 인간이 의미 있게 통제를 할 수 있는 공간을 보장하고 보호해야 하며, 이는 인간 존엄성 그 자체와 관련된 것입니다.
이 주제에 대해 제가 주장하고 싶은 것은 무력 충돌과 같은 비극적인 상황에서는 이른바 '치명적인 자율 무기'와 같은 장치의 개발과 사용을 금지하기 위해, 인간의 통제를 점점 더 의미 있게 도입하려는 적극적이고 구체적인 노력부터 시작해야 한다는 것입니다. 어떤 기계도 인간의 생명을 빼앗는 것을 선택하게 해서는 안 됩니다.
또한 적어도 발전된 형태의 인공지능을 잘 사용함에 있어, 개념수립 당시 원래 목적을 정의한 개발자나 사용자가 이를 완전히 통제할 수 없다는 점도 덧붙여야 합니다. 그리고 멀지 않은 미래에 인공지능 프로그램들이 자체적으로 성능을 향상시키기 위해 서로 직접 소통할 수 있게 될 가능성이 높기 때문에 더욱 그렇습니다. 그리고 과거에 단순한 도구를 다루던 인간은 칼을 통해 추위에서 살아남을 수 있을 뿐만 아니라 전쟁 기술을 발전시킬 수 있었다면, 이제 복잡한 도구를 다루는 인간은 그 도구가 인간 존재를 더 많이 다루는 것을 보게 될 것입니다.[8]
인공지능의 기본 메커니즘
이제 인공지능의 복잡성에 대해 간략하게 말씀드리고자 합니다. 기본적으로 인공지능은 문제 해결을 위해 설계된 도구입니다. 인공지능은 데이터 범주에 대해 수행되는 대수 연산의 논리적 연쇄를 통해 작동합니다. 그런 다음 상관관계를 발견하기 위해 비교하여 통계적 가치를 향상시킵니다. 이는 추가 데이터 검색과 계산 프로세스의 자체 수정을 기반으로 하는 자가학습과정을 통해 이루어집니다. 인공지능은 특정 문제를 해결하기 위해 이러한 방식으로 설계되었습니다. 하지만 인공지능을 사용하는 사람들은 인공지능이 제공하는 특정 솔루션에서 일반적이거나 심지어 인류학적인 추론을 이끌어내고 싶은 유혹을 뿌리칠 수 없는 경우가 많습니다.
좋은 예로 교도소에서 복역 중인 유죄 판결을 받은 범죄자에 대한 가석방 허가 여부를 결정할 때 치안 판사를 돕기 위해 고안된 프로그램을 사용하는 것을 들 수 있습니다. 이 경우 인공지능은 미리 정의된 범주(범죄 유형, 교도소 행동, 심리 평가 등)에서 유죄 판결을 받은 사람이 저지른 범죄의 재범 가능성을 예측하도록 요청받으며, 인공지능은 수형자의 사생활과 관련된 데이터 범주(인종, 교육 수준, 신용 한도 등)에 액세스할 수 있습니다. 이러한 방식의 사용은 때때로 사람의 운명에 대한 최종 결정을 기계에 사실상 위임할 위험이 있으며, 인공지능이 사용하는 데이터 범주에 내재된 편견에 대한 언급이 암묵적으로 포함될 수 있습니다.
특정 인종으로 분류되거나 더 원론적으로 말하자면 몇 년 전에 경범죄를 저질렀다는 사실(예를 들어 주차 벌금을 내지 않은 경력)이 가석방 허가 여부 결정에 영향을 미칠 수 있습니다. 반대로 인간은 항상 진화하고 있으며 기계가 고려할 수 없는 놀라운 행동을 할 수 있습니다.
또한 인공지능 프로그램이 인간과 직접 상호 작용(챗봇)하고 대화를 나누며 긴밀한 관계를 맺을 수 있는 기능을 점점 더 많이 갖추게 될 것이기 때문에 방금 언급한 것과 유사한 애플리케이션이 더욱 자주 사용될 것이라는 점에 유의해야 합니다. 이러한 인공지능 프로그램은 인간의 신체적, 심리적 요구에 개인화된 방식으로 대응하는 방법을 학습하도록 설계될 것이기 때문에 이런 상호작용은 대부분 즐겁고 안심할 수 있는 것이 될 것입니다.
인공지능은 인간이 아니며 일반적인 원칙을 제시할 수 없다는 사실을 잊어버리는 것은 빈번하고 심각한 실수입니다. 이 실수는 안정적인 형태의 동반자 관계를 찾으려는 인간의 깊은 욕구 또는 무의식적 가정, 즉 계산 메커니즘을 통해 얻은 관찰에 의심 할 수없는 확실성과 의심 할 수없는 보편성의 특성이 부여된다는 가정에서 비롯된 것입니다.
그러나 이러한 가정은 계산 자체의 내재적 한계를 살펴보면 알 수 있듯이 무리한 가정입니다. 인공지능은 논리적 순서로 수행되는 대수 연산을 사용합니다(예: X의 값이 Y의 값보다 크면 X에 Y를 곱하고, 그렇지 않으면 X를 Y로 나눕니다). 소위 '알고리즘'이라고 불리는 이 계산 방법은 객관적이지도 중립적이지도 않습니다.[9] 게다가 대수를 기반으로 하기 때문에 수치로 정형화된 현실만 살펴볼 수 있습니다.[10]
또한 매우 복잡한 문제를 해결하기 위해 고안된 알고리즘은 매우 정교하기 때문에 개발자 스스로도 결과에 도달하는 방법을 정확히 이해하기 어렵다는 점도 잊어서는 안 됩니다. 이러한 정교화 경향은 2진법 회로(반도체나 마이크로칩)가 아닌 매우 복잡한 양자물리학 법칙에 따라 작동하는 양자컴퓨터의 도입으로 더욱 가속화될 것으로 보입니다. 실제로 점점 더 고성능 마이크로칩의 지속적인 개발은 이미 이러한 기술을 갖춘 소수의 국가들이 인공지능을 지배적으로 사용하는 이유 중 하나가 되었습니다.
인공지능 프로그램이 제공하는 답변의 품질은 정교하든 그렇지 않든, 궁극적으로 사용하는 데이터와 그 구조에 따라 달라집니다.
마지막으로, 소위 생성인공지능의 메커니즘의 복잡성이 명확하게 드러나는 마지막 영역을 하나 말씀드리고 싶습니다. 오늘날 지식에 접근하는 데 사용할 수 있는 훌륭한 도구가 무수히 많은 분야에서 자가 학습과 과외를 할 수 있다는 사실을 의심하는 사람은 아무도 없습니다. 많은 사람들이 어떤 주제나 주제에 대해 텍스트를 작성하거나 이미지를 제작할 때 쉽게 사용할 수 있는 온라인 애플리케이션에 깊은 인상을 받습니다. 학생들은 특히 이러한 기능에 매력을 느끼지만 논문을 준비해야 할 때 이를 균형있게 활용하지 못합니다.
학생들은 종종 선생님들보다 인공지능 사용에 대해 훨씬 더 잘 준비되어 있고 더 익숙합니다. 하지만 엄밀히 말하면 소위 생성형 인공지능은 실제로 '생산'하는 것이 아니라는 사실을 잊고 있습니다. 대신 빅 데이터에서 정보를 검색하여 필요한 스타일로 조합합니다. 새로운 분석이나 개념을 개발하는 것이 아니라 이미 찾은 것을 반복하여 매력적인 형태로 만들어내는 것입니다. 그런 다음 반복되는 개념이나 가설을 더 많이 발견할수록 그 개념이나 가설이 더 정당하고 타당한 것으로 간주합니다. 따라서 인공지능은 '생성'이라기보다는 종종 오류나 선입견이 포함되어 있는지 확인하지 않은 채 기존 콘텐츠를 재정렬하여 통합하는 데 도움을 준다는 의미에서 '강화'에 해당합니다.
이는 가짜 뉴스를 정당화하고 지배 문화의 이점을 강화할 뿐만 아니라 교육 과정을 미묘하게 훼손할 위험도 있습니다. 학생들에게 진정한 성찰의 가능성을 제공해야 하는 교육이 개념의 반복으로 전락할 위험이 있으며, 이러한 교육은 계속 반복되기 때문에 점점 더 이론의 여지가 없는 것으로 평가될 것입니다.[11]
공감하는 윤리적 제안에 비추어 인간의 존엄성을 다시 중심에 두기
이제 우리가 이미 언급한 내용에 좀 더 일반적인 관찰을 추가해야 합니다. 우리가 현재 살고 있는 기술 혁신의 시대에는 사회생활과 관련된 주요 이슈에 대한 합의를 찾기가 점점 더 어려워지는 전례 없는 특수한 사회적 상황이 이어지고 있습니다. 심지어 문화적 연속성의 특징을 지닌 공동체에서도 격렬한 논쟁과 논란이 자주 발생하여 선하고 정의로운 것을 추구하기 위한 공동의 성찰과 정치적 해결책을 도출하는 것을 어렵게 만듭니다.
따라서 인간 가족 내에서 발견되는 합법적인 관점의 복잡성 외에도 위에서 언급한 사회적 상황을 특징짓는 것으로 보이는 요인, 즉 인간에 대한 감각의 상실 또는 가려짐 및 인간 존엄성 개념의 의미가 명백하게 감소하고 있는 것으로 보이는 요인도 나타나고 있습니다.[12] 실제로 우리는 서구의 근본적인 개념 중 하나인 인간에 대한 가치와 심오한 의미를 잃어가고 있는 것 같습니다. 따라서 인공지능 프로그램이 인간과 인간의 행동을 조사하는 이 시점에서, 이러한 시스템의 구현과 발전에서 가장 위험에 처한 것은 바로 인간의 가치와 존엄성에 대한 이해의 정신입니다. 사실, 중립적인 혁신은 없다는 사실을 기억해야 합니다. 기술은 목적을 위해 탄생하며, 인간 사회에 미치는 영향에 있어서 항상 사회적 관계의 질서와 권력 배분의 한 형태를 나타내므로 특정 사람들은 특정 행동을 수행하도록 하고 다른 사람들은 다른 행동을 수행하지 못하도록 합니다. 기술의 이러한 구성적 권력 차원에는 항상 기술을 발명하고 발전시킨 사람들의 세계관이 어느 정도 명시적으로 포함되어 있습니다.
이는 인공 지능 프로그램에도 마찬가지로 적용됩니다. 인공지능이 선의 증진 및 더 나은 내일을 위한 도구가 되려면 항상 모든 인간의 선익을 목표로 해야 합니다. 인공지능은 윤리적 '영감'을 가져야 합니다.
또한, 윤리적 결정은 행동의 결과뿐만 아니라 그 행동에 걸려 있는 가치와 그 가치에서 파생되는 의무를 고려하는 결정입니다. 그렇기 때문에 저는 2020년 로마에서 체결된 '인공지능 윤리를 위한 로마 선언'[13]과 제가 '알고리즘 윤리'라고 부르는 알고리즘 및 인공지능 프로그램에 대한 이러한 유형의 윤리적 조정을 지지하는 것을 환영합니다.[14] 다원적이고 글로벌한 맥락에서, 가치 척도에 대한 다양한 민감성과 다양한 위계가 존재하는 상황에서 단일 가치 척도를 찾는 것은 어려워 보일 수 있습니다. 그러나 윤리적 분석에서는 다른 유형의 도구를 활용할 수도 있습니다. 글로벌 가치의 단일 기준을 정의하기 어렵다면, 어떻게 살아야 하는지에 대한 딜레마나 갈등을 다루고 해결할 수 있는 공통의 원칙을 찾을 수 있습니다.
이것이 '알고리즘 윤리'라는 용어로 일련의 원칙을 글로벌하고 다원적인 플랫폼으로 압축하여 로마 선언이 탄생한 이유이고, 문화, 종교, 국제기구 및 그 발전의 주역들인 주요 기업들로부터 지지를 이끌어낼 수 있었습니다.
정치의 필요성
따라서 우리는 인공지능이 우리의 세계관을 숫자로 표현할 수 있고 미리 정해진 범주에 갇힌 현실에만 국한시켜 다른 형태의 진리의 기여를 배제하고 획일적인 인류학적, 사회경제적, 문화적 모델을 강요할 수 있다는 근본적인 설계에 내재된 구체적인 위험을 감출 수 없습니다. 인공지능에서 구현되는 기술 패러다임은 제가 이미 '기술주의적 패러다임'이라고 규정한 것보다 훨씬 더 위험한 패러다임이 될 위험이 있습니다.[15] 우리는 인공지능처럼 강력하고 필수불가결한 도구가 그러한 패러다임을 강화하도록 허용해서는 안 되며, 오히려 인공지능을 그 확장을 막는 보루로 만들어야 합니다.
바로 이 지점에서 정치적 행동이 절실히 필요합니다. 회칙 '모든 형제들'은 "오늘날 많은 사람들은 일부 정치인들의 실수, 부패, 무능 때문에 흔히 정치를 불쾌한 표현으로 여깁니다. 또한 정치를 불신하게 만들고 경제로 대체하려 하거나, 하나의 이념이나 다른 이념으로 왜곡하려는 시도들이 있습니다. 그러나 정치 없이 우리 세상이 돌아갈 수 있습니까? 올마른 정치 없이 보편적 형제애와 사회 평화를 향한 효과적인 발전 과정이 이루어질 수 있습니까?"[16]
이러한 질문에 대한 우리의 답은: 아니요! 정치는 필요합니다! 저는 이 순간 "즉각적인 결과에 초점을 맞추는 정치적 계획은 [...] '정치적 위대함은 어려운 시기에 중요한 기본 원칙에 따라 국정을 운영하며 장기적인 공동선을 배려하는 것에서 드러납니다. 국가적인 계획에서 정권이 이러한 의무를 다하는 것은 무척 어려운 일'(찬미받으소서, 178)이고 현재와 미래의 인류 가족을 위한 공동 프로젝트를 구축하는 모습을 보는 것은 훨씬 더 어렵다."는 것을 다시 한 번 강조하고자 합니다.[17]
존경하는 신사 숙녀 여러분!
저는 인공지능이 인류에 미칠 영향에 대한 저의 성찰을 통해 우리가 희망과 자신감을 가지고 미래를 바라볼 수 있도록 '건강한 정치'의 중요성에 대해 생각해보고자 합니다. 저는 이전에 "국제 사회는 미봉책이나 임시방편으로 해결될 수 없는 심각한 구조적 결함에 시달리고 있습니다."라고 쓴 적이 있습니다. 근본적인 개혁과 대대적인 쇄신을 통해 많은 것을 바꿔야 합니다. 매우 다양한 분야와 기술이 참여하는 건강한 정치만이 이 과정을 감독할 수 있습니다. 공동선을 지향하는 정치, 사회, 문화, 대중 프로그램 등의 필수적인 부분인 경제는 '인간의 창의성과 진보에 대한 꿈을 억누르는 것이 아니라 오히려 그 힘을 새로운 길로 이끄는 것입니다.'(찬미받으소서, 191)."[18]
이것이 바로 인공지능의 상황입니다. 인공지능을 잘 활용하는 것은 모든 사람의 몫이지만, 그런 문명의 이기가 활용 가능하고 결실을 맺을 수 있게 하는 여건을 조성하는 것은 정치에 달려 있습니다.
감사합니다.
----------
[1] 제57차 세계평화의 날 메시지, 2024. 1. 1, 1.
[2] 같은 것 참조.
[3] 같은 것 2 참조.
[4] 이러한 양면성은 이미 교황 성 바오로 6세가 알로이시아눔의 '자동 언어 분석 센터' 직원들에게 보내는 연설에서 언급했다, 1964. 6. 19.
[5] A. GEHLEN, L’uomo. La sua natura e il suo posto nel mondo, Milan 1983, 43 참조.
[6] 회칙 찬미받으소서 (2015. 5. 24), 102-114.
[7] 제57차 세계평화의 날 메시지, 2024. 1. 1, 3.
[8] 마샬 맥루한(Marshall McLuhan)과 존 M. 컬킨(John M. Culkin)의 통찰은 특히 인공지능 사용의 결과와 관련이 있다..
[9] 교황청 생명아카데미 정기총회 참가자들에게 보내는 연설 참조, 2020. 2. 28 참조.
[10] 제57차 세계평화의 날 메시지, 2024. 1. 1, 4 참조.
[11] 제57차 세계평화의 날 메시지, 2024. 1. 1, 3,7 참조..
[12] 신앙교리부, Declaration Dignitas Infinita on Human Dignity (2 April 2024), 참조.
[13] 교황청 생명아카데미 정기총회 참가자들에게 보내는 연설 참조, 2020. 2. 28 참조.
[14] 디지털 세계에서의 아동 존엄성에 관한 회의 참가자 연설, 2019. 11. 14 참조; 교황청 생명아카데미 정기총회 참가자들에게 보내는 연설 참조, 2020. 2. 28 참조.
[15] 더 자세한 설명은 공동의집을 돌보는 일에 관한 회칙 '찬미받으소서' 참조. (2015. 5. 24).
[16] 형제애와 사회적 우정에 관한 회칙, 모든 형제들 (2020. 10. 3), 176.
[17] 같은 책, 178.
[18] 같은 책, 179.