TTA — 신뢰할 수 있는 인공지능 개발 안내서 (공공·사회 분야) 읽기

Ella Vibe (Sooyeon Lee)
3 min readFeb 23, 2024

--

인공지능 신뢰성 가이드 라인

국내에서 발간된 인공지능 신뢰성 가이드는 주로 윤리적인 관점에서 추상적인 항목을 제시하기에 실무 현장에서 활용하는데 여러 한계가 있다. TTA(한국정보통신기술협회) 이에 대한 한계를 인지하고 실용적인 요구사항와 검증항목을 도출하여 검증 체계를 마련하고자 하였다.

해당 개발 안내서의 요구사항은 15개이고 검증항목은 68개이다.

TTA <인공지능 신뢰성 가이드 라인(공공·사회 분야)>에서의 서비스 scope는 G2C와 B2G이다.

  • G2C(Government to Customer, 음성인식 민원 접수 시스템과 같은 정부가 국민에게 제공하는 인공지능 기반의 서비스)
  • B2G(Business to Government, 병무청 AI 영상 면접과 같은 기업이 개발하여 정부·공공기관에 제공하는 인공지능 기반의 서비스)

인공지능 윤리 기준 준용

사람 중심의 인공지능 기준(과기정통부, 2020년에 제정한 사람 중심의 인공지능 윤리기준 3대 기본원칙과 10대 핵심요건은 다음과 같다.

10대 핵심 요건

  1. 인원보장
  2. 프라이버시 보호
  3. 다양성 존중
  4. 침해금지
  5. 공공성
  6. 연대성
  7. 데이터 관리
  8. 책임성
  9. 안전성
  10. 투명성

이 10대 원칙 중 ‘기술적으로 적용 가능한’ 4개의 요건을 TTA 가이드 라인에서는 준용하였다. 해당 항목은 다음과 같다.

  • 다양성 존중 :
    - 인공지능 개발 및 활용 전 단계에서 사용자의 다양성과 대표성을 반영해야 하며, 성별·연령·장애·지역·인종·종교·국가 등 개인 특성에 따른 편향과 차별을 최소화하고, 상용화된 인공지능은 모든 사람에게 공정하게 적용되어야 한다.
    - 관련 키워드 : 편향(bias), 차별(discrimination), 편견(prejudice), 다양성(diversity), 평등(equality)
  • 책임성 :
    - 인공지능 개발 및 활용과정에서 책임주체를 설정함으로써 발생할 수 있는 피해를 최소화하도록 노력해야 한다.
    - 인공지능 설계 및 개발자, 서비스 제공자, 사용자 간의 책임소재를 명확히 해야 한다.
    - 관련 키워드 : 책임(liability)
  • 안전성 :
    - 인공지능 개발 및 활용 전 과정에 걸쳐 생명·건강·재산·환경에 있어 잠재적 위험을 방지하고 안전을 보장할 수 있도록 노력해야 한다.
    - 인공지능 활용 과정에서 명백한 오류 또는 침해가 발생할 때 사용자가 그 작동을 제어할 수 있는 기능을 갖추도록 노력해야 한다.
    - 관련 키워드 : 적대적 공격(adversarial attack), 복원력(resilience), 프라이버시(privacy)
  • 투명성 :
    - 사회적 신뢰 형성을 위해 타 원칙과의 상충관계를 고려하여 인공지능 활용 상황에 적합한 수준의 투명성과 설명가능성을 높이려는 노력을 기울여야 한다.
    - 인공지능기반 제품이나 서비스를 제공할 때 인공지능의 활용 내용과 활용 관정에서 발생할 수 있는 위험 등의 유의사항을 사전에 고려해야 한다.
    - 관련 키워드 : 설명 가능한 인공지능(eXplainable AI, XAI), 이해도(comprehensibility)

신뢰성 확보 대상 정의

  1. 인공지능 데이터
  2. 인공지능 모델 및 알고리즘
  3. 인공지능 시스템
  4. 사람-인공지능 인터페이스

생애주기별 요구사항 분류

  1. 계획 및 설계
  2. 데이터 수집 및 처리
  3. 인공지능 모델 개발
  4. 시스템 구현
  5. 운영 및 모니터링

Reference :

--

--