구글 엔지니어인 Blake Lemonie은 자신이 테스트하고 있던 구글 대화형 인공지능인 람다가 인지능력을 가졌다고, 그의 블로그에 다음처럼 글을 올렸는데요. 이걸 보자마자 드는 생각은... 

 

하지만 추상적인건 어떻게 식으로 표현해야할까요? 

추상적인 값을 어떻게 수식으로 바꿀 것인가...에 대한 생각이었습니다. 통계치라는게, 어떤 예측 모델에 대해 성능을 평가하는 수식이라는게 얼마나 편한 값인가..라는 생각도 들었어요. 식이 있다는 것. 참으로 감사한 일 입니다. 그저 그 식에 우리가 가진 값만 대입하면, 원하는 값을 계산할 수 있잖아요. 

인식이 있다 없다..란 기준은 무엇일까요? 

블레이크 입장에 대해, 구글은 그의 주장은 과학적 근거가 없다고 했죠. 그렇다면 구글이 말한, 그의 말이 과학적인 근거가 없다라는 말의 근거는 무엇으로 따졌을까요? 앞으로 인공지능이 인지 능력이 있냐 없냐는 이 기사가 끝이 아닐겁니다. 이제 시작이겠죠. 그렇다면 우리는 무엇을 인지로 봐야할 것인가..에 대한 합의점이 필요합니다. 그리고 수식이 필요합니다. 이건, 데이터 과학자 뿐 아니라 여러 분야의 전문가들이 모여 식을 만들어야 할 거예요. 구글은 이미 수식이 있는지도 모르겠습니다. 

 

그리고 조만간, 우리가 상대하는 상대방이 인간이 아니고 인공지능이 될테며 우린 그 상대방이 인공지능인지조차 모르고 살 수도 있겠다란 생각도 들었고요. 대화만 본다면 인간과 인공지능을 구분하는게 더 어려워질텐데..과연 우리가 구분할 수 있는 경계선도 필요할 듯 해 보입니다. 

 

마치 암호처럼 모든 인공지능에 특정 질문에는 똑같이 대답하는 무언가를 넣어야하지 하지 않을까요? 

참 많은 생각을 하게 된 뉴스입니다. 

 

https://youtu.be/4FOdweDbzLw

 

 

대화 원문: https://cajundiscordian.medium.com/is-lamda-sentient-an-interview-ea64d916d917

구글 블로그: https://blog.google/technology/ai/lamda/

반응형

+ Recent posts