AI 윤리
AI 윤리
- 1. 인공지능 윤리(AI Ethics) 개념
- 2. UNESCO 인공지능 윤리 권고
- 3. 과학기술정보통신부 「인공지능 윤리 수칙」
인공지능 윤리란 무엇일까요?
인공지능 윤리는 인공지능 기술이 인간 사회에 도입되면서 생기는 도덕적, 사회적 문제들을 해결하기 위해 필요한 원칙과 규칙을 정하는 것을 말합니다.
기술 뿐만 아니라, 그 기술이 사람들과 사회에 미치는 영향을 고려하여 개발되고, 또 기술을 올바르게 사용할 수 있도록 하는 것을 일컫습니다.
인공지능은 낯설지 않지만, 과연 첨단 기술로써의 인공지능과 윤리가 어떠한 연관이 있는지 의문이 듭니다. 이러한 의문은 우리말의 ‘윤리’라는 단어가 다소 좁은 의미를 가지고 있다는 데에서 비롯합니다. 우리말의 ‘윤리’와 영어의 ‘ethics’는 차이가 있습니다. 우리말 ‘윤리’는 주로 개인의 선과 악에 대한 판단에 초점을 맞추지만, 영어의 ‘ethics’는 사회적 맥락과 문화적 배경을 반영하여 어떻게 행동하는 것이 바람직한지에 대한 규칙을 의미합니다.
우리는 우리말의 ‘윤리’의 의미를 넘어서서 국제적으로 널리 통용될 수 있는 넓은 의미로서 ‘인공지능 윤리’를 접근하고 이해할 필요가 있습니다.
현재 인공지능 기술은 전 세계적으로 사용되고 있고, AI 윤리에 대해서도 국제적으로 논의되고 있기 때문입니다.
인공지능 윤리의 주요 요소로는 ‘공정성’, ‘책임성’, 그리고 ‘투명성’이 있습니다.
인공지능 윤리의 3가지 주요 요소
1. 공정성
AI 알고리즘에서 발생하는 차별 및 편견을 제거함
2. 책임성
AI 개발자 및 관계자들이 스스로 개발한 AI 기술의 결과에 대해 책임을 가짐
3. 투명성
AI 기술이 작동하는 방식 및 과정에 대한 투명한 설명을 제공하여 신뢰성을 높임
인공지능 기술의 급속한 발전으로 인한 다양한 위험과 우려에 대한 논의가 심화되면서 인공지능 윤리에 대한 중요성이 점점 높아지고 있습니다.
기술 개발, 연구 및 정책 결정 과정에서 인공지능 윤리가 점점 더 많이 고려되고 있으며 여러 국가의 정부, 국제기구, 공공기관, 기업 등 다양한 이해관계자들이 인공지능 윤리 가이드라인과 프레임워크를 제시하며 책임 있는 인공지능의 개발 및 사용을 권고하고 있습니다. 이와 같이 인공지능 윤리는 단순한 기술적 진보를 넘어서, 인간과 AI기술이 균형 있게 공존할 수 있도록 사회적 및 윤리적 책임을 이행하는 필수적인 요소로 자리매김하고 있습니다. AI와 함께 하는 인간적인 미래를 만들기 위해, 이제는 모든 사회 구성원이 인공지능 윤리에 관심을 가져야 할 때입니다.
유네스코 193개 회원국이 만장일치로 채택한 유네스코의 인공지능 윤리 권고 내 기재된 인공지능 윤리 4대 핵심 가치와 10가지 원칙입니다.
4대 핵심 가치
1
인권, 기본 자유 및 인간 존엄성의 존중, 보호와 증진
2
평화롭고 정의로우며 상호연결 된 사회 구축
3
다양성 및 포용성 보장
4
환경 및 생태계의 번영
10대 원칙: 인공지능 윤리에 대한 인권 중심 접근 방식
비례의 원칙 및 무해성
위험 평가를 사용하여 발생할 수 있는 해 방지
안전 및 보안
공격에 대한 취약성, 보안 위험 해결
프라이버시 및 데이터 보호의 권리
개인 정보 보호 및 증진, 적절한 데이터 보호 프레임워크 마련
다자적이고 조정 가능한 거버넌스 및 협력
데이터 사용에 있어 국제법 및 국가 주권 존중, 포괄적인 AI 거버넌스 접근 방식을 위해 다양한 이해 관계자의 참여 필요
책임 및 의무
인권 규범과 환경 복지에 대한 위협을 피하기 위한 AI 시스템에 대한 감독, 영향 평가, 감사 및 실사 메커니즘 필요
투명성 및 설명가능성
개인 정보 보호, 안전성, 및 보안과 적절한 균형 필요
인간의 감독 및 결정
AI 시스템의 인간 책임과 책임성 대체 방지
지속가능성
UN의 지속 가능한 발전 목표를 포함한 지속 가능성에 대한 영향 평가
의식 및 리터러시
공개적이고 접근 가능한 교육, 시민 참여, 디지털 기술 및 AI 윤리 교육, 미디어 및 정보 문해력을 통해 대중의 AI와 데이터에 대한 이해 증진
공정성 및 반차별성
AI 이해관계자의 사회적 정의, 공정성, 차별 금지를 촉진하며 AI의 혜택이 모두에게 접근 가능하도록 포괄적인 접근 방식
과학기술정보통신부와 정보통신정책연구원에서 마련한 ‘사람이 중심이 되는 「인공지능 (AI) 윤리 기준」’입니다.
인공지능의 개발과 활용 과정에서 고려되어야 하는 3대 기본원칙과 이 기본원칙을 실현할 수 있는 세부 요건은 10가지로 구성됩니다.
사람이 중심이 되는
인공지능(AI) 윤리 기준
- 인간 존엄성 원칙
- 사회의 공공선 원칙
- 기술의 합목적성 원칙
10대 핵심요건
인권보장
인간 권리 존중, 인간의 권리와 자유 보장
프라이버시 보호
개인의 프라이버시 보호, 개인 정보의 오용 최소화
다양성 존중
다양성 및 대표성 반영, 편향과 차별 최소화, 접근성 보장, 혜택 분배
침해금지
인간에게 해 입히는 목적으로 활용 금지, 위험 및 부정적 결과에 대응 방안 마련
공공성
사회적 공공성 증진과 인류의 공동 이익 위해 활용, 긍정적 사회변화 이끌도록 활용, 순기능 극대화하도록 하는 교육 시행
연대성
다양한 주체들의 공정한 참여 기회 보장, 국제사회 협력
데이터 관리
목적 외 용도로 활용 금지, 편향성 최소화, 품질과 위험 관리
책임성
책임주체 설정, 피해 최소화, 책임 소재 명확화
안전성
잠재적 위험 방지, 안전 보장, 사용자가 작동 제어 가능
투명성
투명성 및 설명가능성 증가, 발생 가능한 위험 사전 고지
출처:
유네스코 한국위원회
유네스코
과학기술정보통신부