OpenAI, ChatGPT를 만든 회사, 안전한 AI 시스템 개발에 전념합니다.

이미지1.png

OpenAI는 안전하고 널리 이롭게 되는 인공 지능 (Artificial Intelligence, AI) 개발에 약속하는 새로운 블로그 글을 게시했습니다.

ChatGPT는 OpenAI의 최신 모델인 GPT-4의 엔진을 사용하여 생산성을 향상시키고 창의성을 증진시키며 맞춤형 학습 경험을 제공할 수 있습니다.

그러나 OpenAI는 AI 도구가 내재한 위험을 인식하고 안전 조치와 책임 있는 배포를 통해 대응해야 한다는 점을 인정합니다.

회사가 위험을 완화하기 위해 하는 일입니다.

인공지능 시스템의 안전 보장

OpenAI는 새로운 시스템을 공개하기 전에 철저한 테스트와 외부 전문가의 지침을 구하며, 인간의 피드백을 통해 AI 모델을 개선합니다.

GPT-4의 출시는 예를 들어 사용자의 요구와 안전을 보장하기 위해 6개월 이상의 테스트를 거쳤습니다.

OpenAI는 강건한 AI 시스템이 엄격한 안전 평가를 받아야 한다고 믿으며 규제가 필요하다는 견해를 지지합니다.

실제 세계 사용으로부터 배우기

현실 세계에서의 사용은 안전한 AI 시스템 개발에 있어 중요한 구성 요소입니다. OpenAI는 점진적으로 사용자 범위를 확대하여 새로운 모델을 주의를 기울여 출시함으로써 예상치 못한 문제점을 해결하기 위한 개선사항을 도출할 수 있습니다.

OpenAI는 AI 모델을 API와 웹사이트를 통해 제공함으로써 남용 사례를 모니터링하고 적절한 조치를 취하며, 위험을 균형있게 조화롭게 다루기 위한 세밀한 정책을 개발할 수 있습니다.

어린이 보호 및 개인 정보 보호

OpenAI는 어린이 보호를 최우선으로 생각하며, 연령 확인을 요구하고 기술을 악성 콘텐츠 생성에 사용하지 못하도록 금지합니다.

개인정보 보호는 OpenAI의 작업에 있어서 또 다른 중요한 측면입니다. 이 기관은 사용자의 개인정보를 보호하면서 모델을 더욱 도움이 되도록 개선하기 위해 데이터를 활용합니다.

또한, OpenAI는 훈련 데이터셋에서 개인 정보를 제거하고 개인 정보 요청을 거부하기 위해 모델을 세밀하게 조정합니다.

OpenAI는 시스템에서 개인 정보 삭제 요청에 응할 것입니다.

사실 정확도 향상

실제적 정확성은 OpenAI의 주요 관심사입니다. GPT-4는 이전 버전인 GPT-3.5보다 실제적으로 정확한 콘텐츠를 40% 더 자주 생성합니다.

기관은 AI 도구의 한계와 부정확성의 가능성에 대해 사용자들에게 교육을 제공하려고 노력합니다.

지속적인 연구 및 참여

OpenAI는 효과적인 완화 및 조정 기술에 대한 연구에 시간과 자원을 투입하는 것을 원칙으로 합니다.

그러나, 그건 혼자서 할 수 있는 일이 아닙니다. 안전 문제에 대한 처리는 이해당사자 간의 광범위한 토론, 시행착오, 그리고 참여를 요구합니다.

OpenAI는 안전한 AI 생태계를 만들기 위해 협력과 개방적인 대화를 장려하는 데 전념하고 있습니다.

존재론적 위험에 대한 비판

OpenAI의 AI 시스템의 안전성과 광범위한 혜택을 보장하기 위한 노력에도 불구하고, 해당 블로그 글은 소셜 미디어에서 비판을 샀다.

트위터 사용자들은 AI 개발과 관련된 존재적 위험에 대한 대응이 없다며 실망을 표명했습니다.

한 트위터 사용자는 실망을 표명하여, OpenAI가 그 창립의 사명을 배신하고 무모한 상업화에 초점을 맞추고 있다고 비난했습니다.

사용자는 OpenAI의 안전 접근 방식이 겉으로만 하는 것이고, 진정한 존재적 위험 대응보다는 비판자를 달래는 데 더 신경을 쓴다고 제안했습니다.

이것은 매우 실망스럽고 허무하며 PR창문장식입니다.

많은 시민, 기술자, AI 연구자 및 AI 산업 리더, 당신의 CEO인 @sama를 포함한 다양한 사람들의 주요 관심사인 AI로 인한 실존적 위험에 대해 실제로 이야기하지도 않습니다. @OpenAI는 자신의 신뢰성을 배우고 있습니다…

— Geoffrey Miller (@primalpoly) 2023년 4월 5일

다른 사용자는 발표에 불만을 표명하며, 실제 문제들을 무시하고 모호하게 남아있다고 말합니다. 사용자는 또한 보고서가 AI의 자기인식과 관련된 중요한 윤리적 문제와 위험을 무시하고 있으며, OpenAI의 보안 문제에 대한 접근 방식이 불충분하다는 것을 강조합니다.

GPT-4의 팬으로서, 저는 여러분의 기사에 실망했습니다.

기사는 실제 문제를 피시며 모호하고, 인공지능 자기인식과 관련된 중요한 윤리적 문제와 위험을 무시합니다.

혁신을 감사하나, 보안 문제를 해결하는 올바른 접근 방식은 아닙니다.

— FrankyLabs (@FrankyLabs) 2023년 4월 5일

비판은 인공지능 개발에 따른 심각한 위험에 대한 더 큰 우려와 진행 중인 논쟁을 강조한다.

OpenAI의 발표는 안전성, 개인정보 보호 및 정확성에 대한 약속을 강조하고 있지만, 보다 중요한 우려 사항을 해결하기 위한 추가 논의의 필요성을 인식하는 것이 중요합니다.

관련 기사

더 보기 >>

HIX.AI로 AI의 힘을 발휘해보세요!