본 포스트는 인공지능 윤리에 대한 강의를 들은 내용을 정리한 것입니다.
인공지능이 IT를 지배하고 있는 현 시점에서, AI를 개발하거나 이용하는 사람들은 인공지능 윤리에 대하여 꼭 알아야 합니다.
인공지능이라는 것이 대중화되기 전에는 인공지능 윤리가 사실 그렇게 필요하지 않았습니다.
그러나!!
인공지능을 이용한 기술이 엄청난 속도로 생겨나고 있는 지금!
인간을 위한 기술이 인간에게 해를 끼칠 수 있다는 가능성을 인식하고, 이를 윤리적 관점에서 바라보는 시도가 필요합니다.
인공지능 윤리와 관련된 다양한 주제들
- 데이터의 편향(bias)과 인공지능 윤리
- 무인자동차와 인공지능 윤리
- 학교에서 ChatGPT를 사용해야 할까?
- 인공지능이 만든 저작권의 소유자는? (시, 소설, 그림 등)
- 인공지능 교사의 교육이 가능할까?
인공지능 윤리의 기본 원칙
1. 데이터 보호와 프라이버시
2. 공정성과 편향
3. 책임성과 투명성
위 3가지 기본 원칙의 궁극적 목적이 뭘까요?
인간을 위해 봉사하는가
그렇습니다!
모든 IT 기술의 궁극적인 목적은 "인간을 위해 봉사하는 것"입니다.
AI 기술도 마찬가지로 이 궁극적인 목적에 부합해야겠죠!
데이터 보호와 프라이버시
데이터 프라이버시의 범위
- 개인 식별 정보 (PII): 이름, 주소, 전화번호, 이메일 주소, 주민등록번호 등 개인을 식별할 수 있는 모든 정보
- 비식별 정보: 개인을 직접적으로 식별할 수 없는 정보이지만, 다른 정보와 결합될 경우 식별 가능성이 있는 정보
- 민감성 정보: 건강 정보, 금융 정보, 성적 지향 등 개인에게 민감한 영향을 미칠 수 있는 정보
- 익명화 및 가명 처리된 데이터: 원본 식별자를 제거하거나 대체하여 개인을 직접 식별할 수 없게 처리된 데이터
데이터 프라이버시 위협 사례
- Clearview.ai: 얼굴인식 AI 시스템 개발 기업으로 학습을 위해 전 세계 웹 사이트의 SNS 회원 프로필에서 얼굴사진을 무단 수집
- 사용자 음성 정보 저장: AI 음성 인식 비서(Amazon, Google, Apple, Naver, Kakao)의 사용자 음성 정보 저장
공정성과 편향
공정성(Fairness)
- AI 시스템은 편견 없이 모든 사용자에게 공정하게 서비스를 제공해야 함
- 데이터 수집과 모델 학습 과정에서의 편향을 최소화해야 함
편향(Bias)
: AI 시스템이 특정 그룹이나 개인에 대해 불공정하게 행동하거나, 예측하는 경향
1. 데이터 편향: 학습 데이터가 특정 인구 집단을 과대 대표하거나 과소 대표하여 모델이 일부 그룹에 대해 편향된 결정을 내리는 경우
EX) 상업적 얼굴 인식 소프트웨어가 백인 남성의 얼굴을 인식할 때는 매우 높은 정확도를 보였으나, 흑인 여성의 얼굴을 인식할 때는 현저히 낮은 정확도를 보임.
=> 훈련 데이터가 주로 백인 남성의 얼굴로 구성되어 있었기 때문에 발생
2. 알고리즘 편향: 알고리즘 자체의 설계 또는 개발 과정에서 발생하는 편향
EX) AI 채용 시스템이 이력서 선별 과정에서 남성 지원자들을 여성 지원자들보다 우선적으로 선발하는 경향을 보임.
=> 이전에 회사가 주로 남성을 고용한 데이터가 AI 모델에 반영되어, 알고리즘에 남성 지원자를 선호하는 편향이 내재됨
3. 사회적 편향: 사회적 편견이 데이터에 반영되어 AI 모델이 이를 학습하는 경우
EX) 인공지능 기반의 챗봇이 사용자와의 상호작용을 통해 인종적, 성별적 비하 발언을 학습하고 이를 반복하는 문제 발생.
=> 온라인 사용자들의 사회적 편견이 데이터에 반영되어 AI 시스템이 이를 내면화하게 된 사례. 결과적으로 AI가 사회적 편견을 강화하는 방향으로 채팅에 응하게 됨
책임성과 투명성
책임성(Accountability)
- AI의 결정 및 행동에 대해 인간 개발자와 운영자는 책임을 져야 함
- 오류나 문제 발생 시 책임 소재를 명확히 하고, 이를 수정하거나 개선할 수 있는 절차를 마련해야 함
- 사용자에게 AI의 결정 과정에 대한 이해와 이의 제기할 수 있는 권리를 보장해야 함
투명성(Transparency)
- AI 시스템의 작동 원리와 결정 기준은 명확하고 이해하기 쉽게 공개되어야 함
- 사용자가 AI 결정 과정을 이해하고, 필요한 경우 검토하거나 문제를 제기할 수 있도록 지원해야 함
- 데이터 처리 및 활용 방식에 대해 사용자에게 충분한 정볼르 제공하고, 필요한 동의를 얻는 절차를 확립해야 함
책임성, 투명성 필요 사례
1. 인공지능 의사 왓슨의 진단
- 국내의 모 병원이 도입한 인공지능 의사 왓슨의 진단과 인간 의사의 처방이 다른 경우.
2. 자율주행 자동차의 인공지능 시스템을 법률상 "운전자"로 판단
- 미국 도로교통안전국은 구글의 자율주행시스템이 사람처럼 연방 법률에 규정된 "운전자"로 볼 수 있다고 판단
=> 행위자로서의 법적 존재를 인정
3. AI 교사가 내린 학생에 대한 평가
- 인공지능 시스템이 내린 징계 결정, 진학 결정 등에 대한 결정의 근거를 제공해야 신뢰가 형성됨
마치며..
<디지털 권리 장전>
제4장 안전하고 신뢰할 수 있는 디지털 사회
제17조 (디지털 기술의 윤리적 개발과 사용) 디지털 기술이 개발과 사용은 안전과 신뢰를 확보할 수 있도록 윤리적인 방식으로 책임있게 이루어져야 한다.
디지털 권리 장전에도 나와있듯이, AI를 개발/활용하는 우리는 "안전"과 "신뢰"를 최우선적으로 고려해야할 것입니다.
저도 인공지능을 활용하여 데이터를 다루는 한 사람으로서, 항상 인공지능 윤리를 간과하지 않고,
안전하고 신뢰할 수 있는 디지털 사회를 만들기 위해 노력하겠습니다~!

'Study > AI' 카테고리의 다른 글
[AI] CNN(Convolutional Neural Networks)에 대하여 (0) | 2025.01.27 |
---|---|
[AI] Model-Centric AI & Data-Centric AI (0) | 2024.12.05 |
[AI] Artificial Intelligence 인공지능 입문 강의 (POSTECH 유환조 교수님) (0) | 2024.06.07 |
[AI] CNN(Convolutional Neural Network)을 사용하여 MNIST 데이터 분류하기 (1) | 2024.04.10 |