서울대학교 아시아연구소 <연특집: 초거대 AI의 미래(2) 생성모델과 AI 거버넌스>를 읽고

--

재미있었던 포인트 적어보기

특집: 초거대 AI의 미래(2)생성모델과 AI 거버넌스 | 서울대학교 아시아연구소 (snu.ac.kr)

  • 거버넌스 : 통치,관리,통치 방식을 뜻함. 일반적인 정부 주도적 경향에서 벗어나 다양한 행위자가 문제를 해결하는 방식. 현재 다양한 기관과 기업에서 ai 거버넌스를 구축하는 중.
  • AI 거버넌스는 시스템의 잠재적인 위험(저작권 침해, 할루시네이션, 윤리적 이슈 등)을 사전에 평가하고 위험을 체계적으로 관리하는 것.
  • Ai 윤리(공정성,투명성)가 Ai 거버넌스 구축을 위해 구체화되는 중. 즉 뼈대는 윤리?
  • 대표적으로 EU Ai 법안금융위 Ai 안내서가 국내에서는 큰 축인 비중을 차지함.
  • 생성모델과 판별모델의 차이 비교하면서 생성모델에 기존 ai 거버넌스 체계에 부합시키기 어렵다는 핀포인트
    - 생성모델은 최종 활용 단계에서 사용될 목적과 방법이 정해질 수 있기 때문에 보호 조치도 그만큼 늦게 정해지고 미흡할 수 있다. 그리고 판별모델 기준에서 설계된 인공지능 거버넌스는 개인에게 발생할 수 있는 위험을 관리하는데 초점을 맞추고 있다면, 생성모델의 임팩트는 개인보다는 확장된 사회라고 하는데 요즘 딥페이크 뉴스 관련 이야기를 보면 이를 의미하는 것 같다.

--

--