AI로 인해 발생할 문제점 방지 위한 원칙, 논쟁의 여지는 여전하다

[게임플] 인공지능(이하 AI) 개발이 활발히 진행되면서 높아지는 것은 이 기술에 대한 기대감만은 아니다. AI가 활용될 수 있는 분야가 워낙에 많다보니 AI 때문에 각양각색의 범죄가 발생하거나 대량살상에 AI가 활용될 수도 있다는 우려도 함께 커지고 있다.
 
인공지능 개발에 박차를 가하고 있는 대표적인 기업인 구글은 오늘(한국시간) 'AI 기술 7대 원칙'을 발표했다. 美국방부에 인공지능 기술을 지원하는 계약을 체결한 후 반대 타원서에 4,000명 이상의 직원이 서명한 것이 'AI 기술 7대 원칙'의 시작이다
 
구글이 발표한 'AI 기술 7대 원칙은' 다음과 같다.
 
1. 사회적으로 유익해야 한다.
2. 불공정한 편견을 만들거나 심화시켜서는 안 된다.
3. 안전이 우선이다.
4. 인간의 지시와 통제를 따라야 한다.
5. 강력한 개인 정보보호, 데이터 사용에 대한 투명성이 보장되야 한다.
6. 높은 수준의 과학적 우수성과 기술이 공유되야 한다.
7. 잠재적인 위험을 방지하기 위해 원칙에 맞는 용도로 사용되야 한다.
 
이와 함께 구글은 AI가 전반적으로 피해를 야기할 가능성이 있는 기술, 인명 피해를 야기하거나 직접 피해를 입히는 것이 목적인 무기 혹은 관련 기술, 국제적으로 인정된 규범을 위반하는 기술, 국제법과 기본 인권에 위배되는 기술에 사용되서는 안 된다고 선을 그었다.
 
하지만 살상, 파괴 목적의 무기에 AI 기술을 사용하지 않는 것이지 비살상 분야에서는 정부 및 군대와 협력할 수 있다는 가능성은 열어놨다. 사이버 보안, 훈련, 수색, 구조 등의 분야에서는 지속적으로 협력하겠다는 이야기다.
 
구글의 이번 발표는 AI로 발생할 수 있는 부작용도 분명히 존재한다고 구글 역시 인지하고 있으며 이에 대한 해결 의지도 분명하다는 뜻으로 풀이된다. 
 
그러나 구글의 'AI 기술 7대 원칙'의 경계에 자리한 사안이 발생했을 시에는 해당 원칙이 제대로 적용될 수 있을지에 대한 걱정이 있으며, 해당 원칙을 적용하는 사람에 따라 재량껏 해석될 여지도 분명히 존재한다는 점에서 논쟁의 여지를 남겼다.

관련기사

저작권자 © 게임플 무단전재 및 재배포 금지