구글, AI 무기 개발과 사용을 금지하는 등 7개 항목의 AI에 대한 '우리의 원칙' 발표
구글, AI 무기 개발과 사용을 금지하는 등 7개 항목의 AI에 대한 '우리의 원칙' 발표
  • 최창현 기자
  • 승인 2018.06.08 18:54
  • 댓글 0
이 기사를 공유합니다

정부와 군대와의 협력을 계속할 것이지만 단, 사이버 보안, 훈련, 군대 모집, 재향 군인의 건강관리, 수색 및 구조 기술에 한한다
구글의 선다 피차이(Sundar Pichai) CEO(사진:구글, 편집:본지)

구글의 선다 피차이(Sundar Pichai) CEO는 7 일(현지시각) 구글 블로그 포스트에서 인공지능(AI) 사용에 대한 7개 항목의 '우리의 원칙'을 발표하고 AI를 무기 또는 사람들의 부상을 유발하거나 직접적으로 촉진하는 기술로 이용하지 않을 방침이며, 다만 사이버 보안 및 훈련, 수색, 구조 등의 분야에서만 정부와 군과의 협력을 지속할 것이라고 밝혔다. 구글은 이처럼 세부적으로 명시한 것은 최근 미군과의 계약을 놓고 내·외부로부터 압력을 받고 있기 때문인 것으로 보인다.

또한 선다 피차이 CEO는 구글의 AI 이용에 있어서 원칙적으로 사회에 이익이 되며, 부당한 편견을 낳게 하거나 강화하는 것을 방지하고 사회 안전을 위해 구축 및 시험되며, 프라이버시 원칙 등 7 개 항목의 '우리의 원칙'을 구체적으로 제시했다. 이는 최근 인공지능(AI)의 무기 개발에 따른 많은 글로벌 AI 기업들이 이미 AI를 선한 목적에만 사용한다는 일반 원칙에 합의하고 있었지만 구글은 이 보다 더 자세한 세부기준을 마련한 것이다.

구글 블로그 캡쳐

'우리의 원칙' 7개 항목은 1>사회적으로 유익, 2>AI와 관련 불공정한 편견을 만들거나 강요하지 않는다. 3>AI는 안전을 위해 제작되고 테스트 돼야한다. 4>AI 기술은 적절한 인간의 지시와 통제를 받으며, 또한 그 책임은 사람들에게 있다. 5>프라이버시 디자인 원칙으로 프라이버시 보호 장치가 있는 아키텍처를 장려하며, 데이터 사용에 대한 적절한 투명성과 제어를 제공 할 것이다. 6>높은 수준의 과학적 우수성을 지킨다. 7>구글은 잠재적으로 유해하거나 악의적인 애플리케이션을 제한하기 위해 노력할 것이며, AI 기술을 개발하고 배포할 때 원칙에 부합하는 용도로 사용할 수 있도록 한다.

아울러 AI 기술을 개발하고 배포할 때 원칙은 ▶독창성: 고유한 기술을 일반적으로 사용할 수 있도록 만들고 있는지 여부, ▶규모: 이 기술의 사용이 중요한 영향을 미치는지 여부, ▶구글의 참여 특성: 범용 툴 제공, 고객을 위한 툴 통합 또는 맞춤형 솔루션 개발 등이다.

또한 구글은 위의 목표 외에도 다음 응용 분야에서는 AI를 설계하거나 배포하지 않는다고 밝혔다. ▶전반적인 해를 입히거나 일으킬 가능성이 있는 기술. 중대한 위해의 위험이 있는 경우, 우리는 그 이익이 실질적으로 위험보다 중요하다고 생각하는 곳에서만 진행하고 적절한 안전 제약을 포함시킨다. ▶인명 피해를 야기하거나 직접적으로 손해를 가하는 것이 주요 목적 또는 실행인 무기 또는 기타 기술, ▶국제적으로 인정된 규범을 위반하는 감시 정보를 수집하거나 사용하는 기술, ▶국제법 및 인권 원칙에 대해 널리 받아들여지는 원칙에 위배되는 기술 등이다.

마지막으로 구글의 CEO 선다 피차이 (Sundar Pichai)는 "우리는 무기로 사용하기 위해 인공지능을 개발하지는 않지만 많은 다른 분야에서 정부와 군대와의 협력을 계속할 것이라는 점을 분명히 밝힙니다. 여기에는 사이버 보안, 훈련, 군대 모집, 재향 군인의 건강관리, 수색 및 구조가 포함됩니다. 이러한 협력은 중요하며 우리는 이러한 조직의 중요한 업무를 보강하고 서비스 멤버와 민간인을 안전하게 유지하는 방법을 적극적으로 모색 할 것입니다."라고 밝혔다.

아무튼, 아주 가까운 미래에는 완전 자동 운전 차량이 고속도로를 주행하고, 머신러닝 알고리즘이 전염병과 싸우고 온라인에서 구입한 제품을 드론이 납품하고 있을지도 모른다. 자연어 인식, 이미지 인식 및 음성 인식, 머신러닝, 신경 네트워크 등 인공지능 기술의 급속한 발전을 보면 알 수 있듯이 컴퓨터의 인지컴퓨팅 능력은 하루가 다르게 진화하고 있다.

특히 AI가 가장 눈에 띄는 것은 의료 진단 분야이지만 확실 한 것은 AI는 굉장한 이익을 가져다준다는 것이다. 그럼에도 불구하고 스티븐 호킹 박사, 빌 게이츠, 오바마 전 미국 대통령 등 많은 과학자나 유명 인사들이 AI로 인한 인류에 미칠 역기능에 경고와 경종을 울리기도 한다. 그 것은 사회적, 경제적인 관점에서 뿐만 아니라 AI가 인류의 미래에 미칠 영향을 가름하기 어렵기 때문이다.

사진은 지난해 'Advanced Naval Technology Exercise 2017'에서 테스트 중인 미 해병대의 군사 전투 로봇으로 기관총을 포함하여 다양한 무기도 장착할 수 있다.(사진:본지DB)

하지만 더 구체적으로 더 많은 사람이 우려하는 것은 가까운 미래에 AI를 사용한 무기와 전쟁이다. 로봇 병사와 로봇 병기의 등장과 인간의 지능을 추월할 수 있으며, 누구를, 왜? 공격 대상으로 할 것인가를 인식할 수 있게 될지도 모른다. 혹, AI 로봇이나 병기가 극단주의자들의 손에 들어간다면 어떻게 될까? 등의 많은 의구심이 들지만 현실은 일단 만들어 버리면, AI를 탑재한 로봇 병기의 전원은 우리가 끌 수 없을 것으로 보인다.

이처럼 발생할지도 모르는 AI 문제에 대해 유엔은 정기적으로 회의를 열고 있다. 이처럼 매우 우려되는 문제로 인해 1000 명이 넘는 AI 과학자나 전문가들은 AI 로봇 무기 개발 중단을 호소하고 있다. 하지만 중단은 실현 가능성이 없을 것으로 보인다. 단지, 최선의 결과는 아마도 개발의 연기이며, 그 동안 규제 및 제한 사항 부여가 최선 일 것이다.

지금의 시점에서는 아직 환상 같은 이야기이지만, AI가 발생시킬 수 있는 문제에 디자이너, 프로그래머, 제조자 또는 운영자 누가 책임이 있는지를 결정하는 규칙이 필요할 것이며, 인간보다 똑똑하고, 더 적응력이 뛰어난 AI가 등장했을 때 과연 우리에게 무엇이 일어나는지에 대해 우리는 심각하게 고민하고 생각해 볼 필요가 있을 것으로 보인다.

Tag
#N

댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.