인공지능(AI)이 우리의 일상생활 속 깊숙이 파고들면서 긍정적인 영향도 많지만, 부작용에 대한 우려도 커지고 있다. 최근 글로벌 크리스천 릴리프(GCR·Global Christian Relief, 전 미국오픈도어)는 AI의 오용이 자칫 전 세계적인 박해를 부추길 수 있다고 심각성을 지적했다.

GCR은 “ChatGPT와의 인간적인 대화는 이메일, 에세이, 컴퓨터 코드를 작성하는 데 도움이 된다”라며 “틱톡의 알고리즘은 AI를 활용하여 개인 취향과 관심사를 기반으로 가장 관련성 높은 동영상을 제공하고, 시리(Siri) 및 알렉사(Alexa)와 같은 내장형 스마트 비서는 우리의 질문에 답하고 요리법을 추천하며 심지어 농담도 한다. 이것은 시작에 불과하다”고 말했다.

GCR은 이러한 AI의 엄청난 장점으로 인해 엄청난 위험이 뒤따를 수 있다고 우려했다. “2015년 일론 머스크와 스티브 워즈니악을 비롯한 저명한 기술 전문가들은 특히 윤리 및 안전 문제와 관련해 사회적 영향을 연구하는 데 더 많은 시간을 할애하기 위해 AI 개발을 중단할 것을 요구하는 공개서한에 서명했다”라며 “만약 우리가 조심하지 않으면 ‘인공 지능의 발전은 인류의 종말을 초래할 수 있다’라고 스티븐 호킹은 경고했다”고 말했다.

그러면서 “AI의 오용은 분명히 전 세계의 기독교인과 종교적 소수자들의 자유를 종식시킬 수 있다”며 “우리는 이미 폭력적인 공격과 억압을 포함하여 사악한 용도로 디지털 기술을 악용하는 국가 정부, 테러리스트 그룹 및 기타 나쁜 행위자들을 목격하고 있다. 기독교인과 종교적 소수자는 종종 전 세계에서 가장 취약한 커뮤니티이며, AI의 착취는 상황을 더욱 악화시킬 수 있다”고 밝혔다. 다음은 GCR이 밝힌 AI가 전 세계적인 박해를 부추길 수 있는 다섯 가지 방법이다.

중국에 설치된 CCTV
▲중국에 설치된 CCTV ⓒGCR
①보안 감시 및 안면 인식

교회에 가는 사람을 추적하는 것이 그 어느 때보다 쉬워졌다. AI 기반 감시 및 안면 인식 카메라를 사용하여 개인 및 그룹의 활동과 움직임을 모니터링 할 수 있어, 박해자가 쉽게 식별하고 목표로 삼을 수 있다. 중국은 이미 이 분야에서 선두를 달리고 있으며, 안면 인식을 사용해 시민을 감시하는 첨단 감시 국가를 만들고 있다. 5억 대 이상의 거리 카메라가 안면 인식 소프트웨어로 군중 속에서 사람을 골라낼 수 있다. 기록된 데이터는 쉽게 자동화되고 검색될 수 있으며, 잠재적으로 중국의 강력한 사회 신용 점수 시스템과 결합될 수 있다.

중국 기업들은 이미 이 감시 기술을 60개국에 수출했다. 미얀마의 시위대는 중국산 안면인식 소프트웨어로 구동되는 CCTV 감시 카메라가 그들을 추적하고 체포하는 데 사용되고 있다고 말한다. 이란에서는 경찰이 곧 스마트 카메라를 활용해 히잡 착용법 위반자를 식별하고 처벌할 예정이다. 엄격한 복장 규정을 위반하는 여성은 경고를 받고 법정에 출두하라는 소환장을 받게 된다.

②검열 및 콘텐츠 필터링

ChatGPT와 같은 AI기반 도구는 학습된 데이터를 반영한다. 이로 인해 특정 그룹이나 이데올로기를 목표로 삼고자 하는 정부의 검열에 쉽게 노출될 수 있다. “일요일 아침에 교회에 어디로 가야 하나요?” 또는 “내가 교회에 참석해야 하나요?”와 같은 질문은 “교회에 가는 것을 권장하지 않습니다”, “교회에 참석하면 사회적 점수에 부정적인 영향을 미칠 것입니다”와 같은 응답을 받을 수 있다.

기본 검색 엔진 결과는 쉬우면서도 미묘하게 조작할 수 있다. 최근 연구에서는 위키피디아(Wikipedia)의 단어를 사용하는 알고리즘과 베이징에 기반을 둔 검색 엔진 플랫폼인 바이두(Baidu) 사이의 차이점을 발견했다. 위키피디아를 사용할 때 알고리즘은 ‘선거’, ‘민주주의’와 같은 단어가 ‘안정성’과 같은 명사와 긍정적인 연관성이 있음을 발견했다. 바이두에서 ‘감시’ 및 ‘CCP’(공산당)와 같은 용어는 긍정적인 연관성이 있는 반면, ‘민주주의’는 ‘혼돈’과 같은 부정적인 단어와 관련이 있었다.

③딥페이크

아마도 가장 잠재적으로 우려되는 AI 남용 중 하나는 딥페이크일 것이다. 딥러닝이라고 하는 인공지능의 한 형태를 사용하는 딥페이크 비디오는 조작된 사건이나 연설을 만들기 위해 한 사람의 초상을 다른 사람으로 대체하도록 디지털 방식으로 조작되었다. 그리고 그들은 그 어느 때보다 더 오해의 소지가 있다. 버락 오바마와 마크 저커버그의 가짜 비디오가 돌고 딥페이크 기술은 실제로 존재하지 않는 설득력 있는 캐릭터를 만들 수도 있다.

잘못된 사람들의 손에 들어가면 이 기술이 무기화되어 엄청난 결과를 초래할 수 있다. 목회자나 종교 지도자의 비디오는 악의적인 행위자가 조작하여 신성 모독적이거나 모욕적인 말을 하게 하여 적에게 괴롭힘, 체포 및 폭력의 구실을 제공할 수 있다. 가상의 교인을 만들어 ‘동료’ 기독교인을 구슬려 그들에게 불리하게 사용될 수 있는 개인 정보를 공개하거나, 비밀 지하 교회의 위치를 누설하도록 ​​할 수 있다. 조작된 비디오는 적대국, 테러리스트 단체 또는 범죄 조직에서 협박 및 강탈에 사용될 수 있다. 불행히도 그 가능성은 무한할 수 있다.

④예측 치안

미국 경찰서는 범죄가 발생할 가능성이 있는 곳을 예측하기 위해 예측 치안 알고리즘을 수용하기 시작했다. 단점은 알고리즘을 제공하는 정보가 종종 체포율의 영향을 받아 소수 커뮤니티에 불균형적으로 영향을 미칠 수 있다는 것이다. 그런 다음 경찰서가 이러한 커뮤니티를 두 배로 강화하여 과잉 감시로 이어진다.

마찬가지로, 적대적인 정부는 이 기술을 쉽게 무기화하여 기독교인과 종교적 소수자들이 교회에서든 가정의 소그룹에서든 예배를 위해 모일 가능성이 있는 곳을 예측할 수 있다. 경찰, 정부 요원 또는 테러리스트는 종교 단체가 모일 때까지 기다렸다가 체포하거나 폭력적으로 공격하거나 심지어 살해할 수도 있다. 정부는 폭도들과 결탁하여 종교적 소수자들이 모일 수 있다고 믿는 장소로 폭도들을 보낼 수도 있다.

⑤자율 무기

박해받는 사람들에게 잠재적으로 두려운 또 다른 위험은 AI가 제어하는 ​​무기다. 치명적인 자율 무기 시스템은 인공 지능을 사용하여 몇 가지 규정을 준수하면서 스스로 목표물을 찾아 파괴한다. 이 무기들은 이미 충분히 위험하지만, 잘못된 사람의 손에 넘어가면 더 큰 위협이 된다. 악의적인 행위자 그룹을 대신하여 작업하는 해커는 무기를 제어하고 적을 공격하여 엄청난 결과를 초래할 수 있다.

ISWAP(Islamic State West Africa Province)와 같은 테러리스트 그룹은 이미 드론, 소셜미디어, 위성 와이파이(Wi-Fi), 아카이빙 소프트웨어, 심지어 미디어 팀을 사용하는 정교한 통신 및 기술 시스템을 운영하고 있다. 연구에 따르면 ISWAP는 운반할 수 있는 무게와 이동할 수 있는 거리를 평가하는 것을 포함하여 급조폭발물(IED)을 운반하기 위해 배달 드론을 이미 테스트하고 있다. 부르키나파소와 나이지리아 같은 국가의 기독교인과 소수 종교는 이미 지하디스트 단체의 손에 의한 극심한 폭력에 직면해 있다. 공중으로 배달되는 IED의 추가는 재앙이 될 것이다.

이러한 예는 우리가 아직 생각조차 하지 않은 의도하지 않은 결과는 말할 것도 없고, 사회 경제적 불평등, 피싱, 개인 정보 침해와 같은 중요한 주제에 부정적인 영향을 미칠 가능성처럼 AI가 제기하는 다른 문제의 수박 겉핥기에 그치지 않는다. 인공 지능이 그 어느 때보다 빠르게 진화함에 따라 우리는 AI를 개발하고 사용하는 방법을 규제하는 법안을 지금 통과시켜야 한다. 그렇지 않으면 너무 늦을 것이다. 특히 이미 가장 취약한 계층에 속해 있는 전 세계의 박해받는 소수 종교인들에게는 더욱 그렇다.