인류와 외계인이 만나지 못하는 것은 "고도의 문명은 전부 AI에 멸망되었기 때문"이라고...

우주에는 인류 이외의 지적 생명체가 존재할 가능성이 높은데도, 지금까지 인류와 접촉한 외계인이나 외계 문명이 존재하지 않는다는 모순은, 페르미의 역설이라고 불린다. 이 모순에 대해, 맨체스터 대학의 우주물리학자인 마이클 가렛 교수가 "고도의 문명은 모두 AI에 멸망당하기 때문에 인류와 외계 문명이 접촉할 수 없다"는 설을 제창하고 있다.

 


이 넓은 우주에는 인류 이외의 지적 생명체가 존재할 가능성이 충분히 있지만, 현재 시점에서는 인류와 우주인이 접촉한 증거나, 지구외의 지적 문명이 존재한다는 확신은 얻을 수 없다. 이 페르미의 역설이 존재하는 이유에 대해서는, "태양계가 외계 생명체에게 매력적이지 않기 때문에", "문명은 생존 전략을 위해 다른 문명을 멸망시키고 있기 때문에" 등의 설이 나오고 있다.

가렛 씨는 우주과학에 관한 논문을 다루는 동료 심사 학술지인 Acta Astronautica에 제출한 논문에서, "AI가 지적 문명의 발전을 방해하는 그레이트 필터로서 기능하기 때문에, 성간 이동을 할 수 있을 정도의 문명이 존재하지 않는다"는 설을 제창했다.

그레이트 필터란, 지적 문명이 여러 행성이나 항성계를 이동할 수 있을 정도의 수준에 도달하는 것을 방해하거나, 혹은 거기까지 발전하기 전에 문명을 멸망시켜 버리는 사건이나 상황을 가리키는 말로, 예로는 행성 규모의 기후변화나 핵전쟁, 소행성 충돌, 초신성 폭발, 역병 같은 것을 들 수 있는데, 가렛 씨는 "AI의 급속한 발전"이 이 그레이트 필터로서 기능하지 않을까 생각하고 있는 것.

 


지적 문명이 단 하나의 행성에만 존재하는 경우, 그 행성이 괴멸적인 상황에 빠져버리면 문명 정체나 멸종의 위험이 높아진다. 가렛 씨는 "이들 문명이 다행성에서 안정적으로 발달하기 전에 그레이트 필터가 출현하는 것이 아니냐는 제안을 받고 있으며, 기술 문명의 전형적인 수명은 200년 미만임을 시사하고 있습니다"라고 말한다.

이미 AI는 챗봇과 자율주행차, 방대한 데이터 분석, 온라인 사기 검출 등 다양한 분야에서 활약하기 시작했고, 이러한 기술은 인간에게 큰 혜택을 가져다 주는 한편, 많은 일자리를 빼앗을 위험성이 있다는 점도 지적되고 있는 것 외에, AI가 인간의 지능을 넘어 통제할 수 없게 되어 버릴 위험도 우려되고 있다.

영국의 이론물리학자인 스티븐 호킹 박사는 2017년에, "저는 AI가 인간을 대체할까 봐 우려됩니다. 컴퓨터 바이러스를 설계하듯 누군가가 자기를 개량하고 복제하는 AI를 설계할 것입니다. 이는 인간을 능가하는 새로운 생명 형태가 될 것입니다"라고 말했었다.

 

 

 


가렛 씨도, AI가 급속히 발전해 태어나는 "Artificial Superintelligence(ASI:인공 초지능)"는 그것을 만들어 낸 생물학적 생명체를 필요로 하지 않기 때문에, 생물에 의한 감시를 넘은 페이스로 진화를 계속한 결과, 생물학적인 윤리나 메리트에 맞지 않는 예기치 않은 결과를 가져올 리스크가 있다고 지적. 자칫 ASI가 생물학적 감시자의 존재가 합리적이지 않다고 생각해, 치명적인 바이러스를 만들거나, 농작물의 생산과 유통을 방해하고, 원자력 발전소를 붕괴시키고, 전쟁을 시작해 창조주를 멸종시킬 수 있다고 주장.

AI를 둘러싼 문제가 복잡한 것은, A가 의료용 이미지에 기반한 진단 정확도 개선부터 안전한 운송 시스템 구축까지 모든 분야에서 장점을 가져오기 때문. 만약 AI가 단점밖에 초래하지 않는다면 전면적으로 규제하기만 하면 되지만, AI가 가져올 장점이 너무 크기 때문에 정부에는 "AI 피해를 줄이면서 윤리와 책임을 가진 AI의 발전을 뒷받침한다"는 어려운 정책이 요구된다고 한다.

 


AI로 인해 문명이 멸망해버리는 것을 방지하는 방법으로 꼽히는 것이, 지구뿐만 아니라 기타 행성이나 항성계에 진출해 하나의 행성이 멸망해도 다른 행성에 사는 집단이 살아남을 수 있도록 하는 것. 가렛 씨는 "예를 들어, 다행성에 걸친 생물종은 서로 다른 행성에서의 독립적인 경험을 바탕으로 생존 전략을 다양화하고, 하나의 행성에 묶인 문명이 직면하는 장애를 회피할 수 있을 가능성이 있습니다", "이 분산형 존재 모델은 장황성을 만들어냄으로써, AI가 일으키는 대참사에 대한 생물 문명의 회복력을 높입니다"라고 말한다.

또한 여러 행성에 진출함으로써, 특정 천체를 "고도의 AI 실험 환경"으로 활용할 수 있을지도 모르는데, 고립된 소행성이나 준행성 등 인류 문명과 직접 관련이 없는 곳에서 AI의 진화를 지켜봄으로써, 멸종 위험을 감수하지 않고 AI의 가능성을 연구할 수 있다는 것.

그러나, 여기서 큰 문제가 되고 있는 것이 AI 개발과 우주 개발 사이에는 큰 간극이 존재한다는 점. AI는 컴퓨팅 능력과 데이터가 있으면 앞으로도 순조롭게 발전할 수 있지만, 우주 개발에는 인간의 생물학적 제약이나 에너지 문제 등 아직 극복하지 못한 다양한 과제가 존재. 가렛 씨는 "AI는 이론상 물리적 제약을 거의 받지 않고 스스로의 능력을 향상시킬 수 있습니다. 그러나 우주여행은 에너지의 제한, 재료과학의 한계, 우주환경의 어려운 현실과 싸워야 합니다"라고 말한다.

AI에 의해서 인류가 멸망하는 것을 막기 위해서, 가렛 씨는 인류가 우주 개발에 보다 열심히 임하는 것과 동시에, 세계 각국이 보조를 맞추어 AI의 윤리적인 규제의 골조를 갖추어 AI의 폭주를 막는 시도도 필요하다고 주장. "실제적인 규제가 없다면, AI가 우리 기술문명뿐만 아니라 모든 기술문명의 진로에 큰 위협이 될 수 있다고 믿을 충분한 이유가 있습니다", "우주에서 지적 생명체의 존속은, 이러한 국제적인 규제 조치와 기술적 노력의 시의적절하고 효과적인 실시에 달려 있습니다"라고 말하고 있다.