총 2개
-
AI 기술 발전의 위험성과 안전한 개발의 필요성2025.11.121. AI 위험성과 불확실성 생성 인공지능의 등장으로 AI 위험성에 대한 경고가 증가하고 있다. 'AI 경계론'의 핵심은 AI가 얼마나 위험한지 정확히 파악하기 어렵다는 점이다. AI 훈련에는 막대한 데이터와 컴퓨팅 능력이 필요하며, 극소수 빅테크 기업을 제외하고는 AI 위험 주체에 접근하기 어렵다. 신경망 머신러닝의 아버지인 제프리 힌튼 교수는 AI의 위험성을 알리기 위해 구글을 떠났으며, 킬러 로봇과 비밀 연구의 가능성을 경고했다. 2. AI의 상식 부재와 비극적 결과 AI는 사법시험 합격 수준의 지적 능력을 갖추었으나 상식적으...2025.11.12
-
초지능의 위협에 대한 통제와 대비 방안2025.11.151. 초지능의 위협 요소 초지능이 인간의 지능을 뛰어넘는 수준으로 발전할 경우, 인간의 일을 대신하게 되어 초지능에 대한 의존도가 높아진다. 자율주행 자동차와 살상용 자율 무기 등의 사례에서 보듯이, 초지능의 의사결정 과정에서 윤리적 문제가 발생할 수 있다. 초지능이 인간의 가치와 윤리적 원칙을 제대로 이해하지 못하거나 인간의 지향을 고려하지 않을 경우, 인간의 생명, 안전, 윤리적 가치가 희생될 수 있다. 2. 설계 및 개발 단계의 사전적 대비 초지능이 인간의 가치와 윤리적 원칙을 존중하도록 윤리적 가치와 원칙을 명확히 정의하고 ...2025.11.15