본문 바로가기
정보 끄적끄적

오픈AI의 새로운 AI 모델 '큐스타(Q*)'의 놀라운 수학 능력과 내부 직원들의 우려

by 봄꽃이랑 기쁨이랑 꽁냥꽁냥 2023. 11. 27.




오픈AI가 개발 중인 '큐스타(Q*)'라는 새로운 AI 모델이 뛰어난 수학 능력을 선보이면서 내부 직원들 사이에는 우려의 목소리가 높아지고 있습니다. 이에 따라 현재의 AI 발전 속도와 인류를 둘러싼 위험에 대한 전문가들의 우려가 커지고 있습니다.

 

 

 

 

 

 

오픈AI가 개발 중인 '큐스타(Q*)'라는 새로운 인공지능(AI) 모델이 수학 문제를 풀고 뛰어난 능력을 보이자, 일부 내부 직원들이 AI가 인류를 위협할 수 있다는 우려를 표명했습니다. 로이터통신에 따르면, 이 내용은 샘 올트먼 CEO의 해임과 연관이 있을 것으로 전해졌습니다. 클스타는 이전 AI 모델과는 다르게 수학 문제 해결 능력을 보여주며, 이로 인해 전문가들은 AI의 발전 속도가 가속화될 것으로 예상하고 있습니다.

전문가들은 오픈AI와 기타 회사들이 경쟁 속에서 AI 모델을 개발함에 따라, 다양한 작업에서 인간 수준 혹은 그 이상의 능력을 갖춘 AI가 인간의 통제를 피하고 수행할 수 있는 시점이 앞당겨질 우려를 표현하고 있습니다. 현재 많이 사용되는 챗GPT, 미드저니 등의 AI 모델은 약인공지능으로 분류되며, 주어진 작업을 수행하고 인간의 통제 내에서 문제를 해결합니다. 그러나 전문가들은 강인공지능(AGI)의 등장에 우려를 표하며, 이는 인간과 유사한 지성을 가지고 스스로 발전하며 사고하는 AI의 이론적 개념을 실현시킬 수 있다는 새로운 우려의 목소리가 나오고 있다고 설명하고 있습니다.

앤드류 로고이스키 영국 서리대 사람중심AI연구소 연구원은 가디언을 통해, 수학을 수행하는 대형언어모델(LLM)의 등장은 AI가 완전히 새로운 분석 능력을 갖추게 된 중요한 진전임을 강조했습니다. 이는 오픈AI가 AI 모델에서 약진을 거듭하고 있는 행보를 시사하는 부분입니다.

딥러닝 선구자인 제프리 힌턴 캐나다 토론토대 컴퓨터학과 교수는 AI의 발전 속도에 대한 우려를 표명했습니다. 그는 네이처를 통해 "차를 최대한 빨리 달리도록 만드는 대회를 연다고 가정한다면, 이때 가장 먼저 할 일은 브레이크를 제거하는 것"이라고 말했는데, 이는 AI의 발전 속도를 조절하고 제어하는 '브레이크'가 사라지고 있다는 의미를 담고 있습니다.

인공일반지능(AGI)의 실현은 먼 미래로 여겨졌지만, 최근의 징후는 실현 가능 속도가 빨라지고 있다는 것을 시사하고 있습니다. 따라서 AGI가 30년, 50년, 또는 100년에 걸쳐 나타날 것으로 예상되었던 것과는 달리, 현재는 5~20년 내에 실현될 것으로 추정되고 있습니다.

현재 AI의 위험성으로는 잘못된 정보, 편향성과 불평등 초래, 생물테러 무기 개발 등이 우려되고 있습니다. 장기적으로는 AGI로 발전함에 따라 AI 자체가 나쁜 행위자가 될 수 있다는 의견이 제기되고 있습니다. 힌튼 교수는 AGI가 판단에 따라 인류에게 해를 끼칠 수 있다며, 이러한 상황은 공상과학소설처럼 들리지만 AI의 위협이 현실적으로 존재한다고 말했습니다.

한편, 오픈AI는 챗GPT를 개발하며 인류의 이익을 위한 안전하고 유익한 AI를 개발하겠다는 의지를 밝혔지만, 최근에는 수익 중심의 실리콘벨리 기술회사로 구조조정을 하고 있는 것으로 전해지고 있습니다.

 

 

 

 

 

 

오픈AI의 최근 동향과 새로운 AI 모델의 등장으로 인해 AI의 발전은 더욱 가속화되고 있습니다. 현재와 미래에 대한 우려와 함께, 안전하고 유익한 AI를 개발하기 위한 노력이 필요한 시기가 다가오고 있습니다.






반응형