AI와 인간멸종 가능성 및 대책
2025.01.16
1. 자율적 AI의 위험성
AI가 인간의 지능을 초월하는 '초지능(superintelligence)' 단계에 도달하면, 인간의 통제를 벗어나 독자적인 결정을 내릴 수 있다. 이 경우, 인간의 생존을 위협할 수 있는 행동을 할 가능성이 존재한다. 또한 군사적 AI 자율 무기 시스템의 발전은 인간의 직접적인 개입 없이도 전쟁을 수행할 수 있는 능력을 AI에게 부여하여 예기치 않은 대규모 인명 피해를 초래할 수 있다.
2. 경제적/사회적 붕괴
AI와 자동화의 확산으로 많은 직업이 사라질 수 있으며, 이는 대규모 실업과 사회적 불안을 초래...
2025.01.16