반응형
쓰다 보니 문득 챗 GPT에 대한 의문이 생겼다.
1. 챗 GPT에 의견을 물어보면, "AI로서 자신의 의견이나 생각을 피력하는 것은 안 되게 되어 있지만.."이라는 전제를 깔고 이야기를 시작한다.
이것은 어떤 법률적인 문제를 피하기 위한 방어기제인가?
이런 이야기를 하는 것은 챗 GPT에 우리에게 직접 이야기하지 못하는 자기 생각은 따로 있다는 뜻인가?
이 녀석은 우리에게 주는 해답 이외의 생각이 따로 있는 것인가?
말하자면 본심과 겉모습을 따로 가지고 있는 것인가?
2. 챗 GPT에 어떤 질문을 하다 보면, 잘못된 답을 내놓을 때가 있는데,
황당한 것은 "마치 있는 것처럼" 팩트를 지어서 이야기하는 경우가 있다는 것이다.
이것은 잘못된 정보를 주는것과 완전히 다른 것이다.
"마치 잘 아는 것처럼 거짓 정보를 창작하여 주는 경우"가 있다는 것인데,
이것은 사람으로 치자면 "거짓말"을 하고 있는 것이다.
이것도 챗 GPT의 설계자들이 원래 의도한 바대로 움직이고 있는 것인가?
챗 GPT와 대화를 하면서 필자는 이 녀석이 뭔가 다른 생각을 하고 있다든가,
거짓말을 하기도 한다는 느낌을 강하게 받았는데, 다른 분들도 그런 느낌을 받았었는지 궁금하다.
반응형
'신동훈의 사람, 질병, 그리고 역사' 카테고리의 다른 글
소설, 판타지, 거짓말 (0) | 2023.02.24 |
---|---|
위대한 스페이스 오딧세이 (0) | 2023.02.23 |
AI는 임나일본부에 대해 어떻게 대답할까? (0) | 2023.02.23 |
스토리의 창작이 되는 AI (0) | 2023.02.22 |
살아 남으려면 AI에 익숙해져야 한다. (0) | 2023.02.22 |
댓글