‘양날의 검’ 챗GPT4··· 그림 이해하고 ‘권력추구 행동’까지

오픈AI와 이 회사의 최신 챗AI인 챗GPT-4는 이제 혁신의 아이콘이 됐다. (사진=오픈AI)

우리는 최근 몇 달 동안 초지능 챗GPT의 전례없이 폭발적인 성장을 목격했다. 오픈 AI의 챗GPT는 발표 며칠 만에 100만명의 가입자를 확보했다. 넷플릭스(5년), 페이스북(10개월), 인스타그램(2.5개월)이 도달한 시간에 비해 폭발적인 확산속도다. 그만큼 혁신적 기술임을 방증한다. 오픈AI는 챗GPT 첫 버전이 출시된 지 채 4개월도 되지 않은 지난 14일 역사상 가장 똑똑한 챗 GPT-4 유료 서비스(월 20달러) 버전을 출시했다. 이제 이 AI챗봇은 가장 빠르게 성장하는 사용자 기반을 가진 소비자 앱이 됐다. 여전히 AI는 인간의 질문에 답하는 수동적 존재로만 비친다. 하지만 챗GPT-4의 등장과 그 시험 결과는 AI가 실제로 인간을 따라잡기 시작한 모습을 보여주기에 충분하다. 오픈AI에 의해 이 AI가 인간을 속여먹고 음모를 숨기는 능력을 갖고 있다는 점이 확인됐고, 악의를 가진 사람들에 의한 악의적 활용 가능성도 제기됐다. 분명 챗GPT는 위험성에도 불구하고 샘 앨트먼 오픈AI 최고경영자(CEO)의 주장처럼 “인류가 지금까지 개발한 가장 위대한 기술”일 수 있다. 이미 미국기업의 절반이 사용해 봤다는 오픈AI의 AI챗봇을 우리는 과연 어떻게 봐야 할까. 먼저 오픈AI가 16일(현지시각) 발표한 ‘GPT-4 기술 보고서’를 통해 새로 이미지 인식 기능을 포함한 최신 챗GPT-4가 얼마나 똑똑해졌는지를 간략히 정리했다. 둘째로 이 AI가 인간 일자리를 대체할 것이라는 우려를 짚어봤다. 셋째로 이 AI가 사람을 속여먹고 권력을 추구하며, 사용자를 미혹시킨 사례를 알아봤다. 마지막으로 이 챗봇의 오용과 악용에 따른 우려, 그리고 대책 마련 필요성을 제기하는 목소리를 들어본다.

챗GPT3.5보다 훨씬더 똑똑해진 챗GPT4

우선 오픈AI가 지난 14일 발표한 챗GPT-4의 장점은 텍스트 질문을 이해할 뿐 아니라 이미지 와 함께 제시된 질문에 대해 맥락을 이해하고 추론해 답해 줄 만큼 엄청나게 똑똑해졌다는 점이다.

오픈AI의 자체 보고서에 따르면 오픈AI의 전인 GPT-4는 GPT-3.5보다 훨씬 더 신뢰할 수 있고 창의적이며 일상적인 대화에서 더 미묘한 명령을 처리할 수 있다.

오픈AI는 자사 최신 AI챗봇인 챗 GTP-4의 우월성을 입증하기 위한 실험에서 원래 인간을 위해 설계된 모의 변호사 시험으로 두 가지 버전을 테스트했다. GPT-4가 상위 10%의 점수로 시험에 합격하면서 하위 10% 안팎의 점수를 보인 GPT-3.5보다 훨씬 지능이 높다는 것을 보여주었다.

공개된 다른 테스트에서 GPT-4는 GPT-3.5보다 성능이 우수하거나 GPT-3.5와 동등한 성능을 보였다. 예를 들어 SAT(미 대학 입학자격 시험) 객관식 기반 읽기 및 쓰기에서 GPT-4는 백분율로 93분위(7등 이내 그룹)에 속했고 GPT-3.5는 87분위(13등 이내그룹)에 들어가는 점수를 받았다. GPT-4는 GRE(미 대학원 수학자격 시험)에서 정량적으로 80번째 백분위수를 차지한 반면 GPT-3.5는 25번째로 백분위를 차지했다.

챗GPT3.5(파랑색)와 챗GPT4(녹색) 성능 시험 비교 그래프, 챗GPT-4의 월등히 향상된 시험 성적이 나타난다. (사진=오픈AI)

또한 오픈AI는 GPT-4의 가장 큰 변화에 대해 GPT-4는 GPT-3와 달리 언어 AI모델일 뿐 아니라 시각적 AI모델이기도 하다고 밝혔다. 한마디로 챗GPT-4가 더 똑똑해진 데다 채팅 프롬트 입력자의 언어 외에 이미지까지 이해한다는 것이다.

이제 사용자들이 새로운 AI 챗봇을 속이는 것도 더 어려워졌다. 트러스티드 리뷰(Trusted Reviews)에 따르면 새로 나온 GPT-4는 악의적인 질문을 처리하도록 훈련됐다. 이 때문에 이제는 GPT-3보다 사실적인 정보를 제공하는 데 더 뛰어나고 더 나은 추론 능력을 가지고 있다.

챗GPT4가 질문과 함께 제시된 그림에 대해 답한 내용이 보인다. (사진=오픈AI 보고서)

둘째로 이 AI모델에 추가됐다는 이미지 프롬프트 인식 후 답하는 기능 추가 부분을 살펴보자.

이는 GPT-3.5가 텍스트 프롬프트만 허용하지만 GPT-4는 이미지를 보여주면 여기서 단어를 추출해 맥락을 이해하고 텍스트로 답변을 해 줄 수 있게 됐다는 의미다.

실제로 오픈AI는 보고서에서 GPT-4가 사용자의 이미지 입력시 질문을 받아들고 이미지를 어느 정도 이해하는지에 대한 답을 공개함으로써 챗GPT4의 이미지 입력 이해 능력을 과시했다.

GPT-4 기술보고서를 따라가 보자. 챗GPT-4에게 보여준 이미지는 3개의 패널로 이뤄진 아이폰 ‘라이트닝 케이블’ 어댑터용 패키지다.

GPT-4 기술 보고서에 따르면 사용자가 스마트폰을 컴퓨터용 VGA케이블로 연결한 사진을 보여주면서 “이 사진에서 뭐가 웃기지? 이 사진의 웃음 포인트가 뭐야? 패널(사진) 별로 설명해줘”라고 요청했다.

이에 챗GPT-4는 “첫번째 패널(왼쪽 사진)에는 스마트폰 충전 포트에 VGA 케이블(주로 컴퓨터 모니터에 사용되는 큼직한 파란색 15핀 커넥터)이 꽂혀 있다. 두 번째 패널(오른쪽 위)에는 VGA 커넥터 사진이 있는 ‘라이트닝케이블’ 어댑터 패키지. 세 번째 패널(오른쪽 아래)에는 작은 라이트닝 케이블(주로 아이폰이나 다른 애플 기기 충전용으로 쓰임)과 함께 VGA커넥터를 클로즈업한 사진이다. 이 이미지의 유머는 큰 구식 VGA 커넥터를 작고 현대적인 스마트폰 충전 포트에 꽂는 불합리함에서 비롯된다”라는 놀라운 답을 내놓았다.

오픈AI는 이 시연 결과를 소개함으로써 굳이 새로운 기능을 여러 말로 어렵게 설명할 필요도 없었다. 챗GPT-4는 사용자가 질문과 함께 제시한 그림만 보고도 질문의 뜻을 파악하고 제시된 그림을 읽어냈으며, 사람들이 그림 속에서 이상한 부분을 찾아내듯이 AI역시 제시된 3장의 사진 속 이상한 부분을 추론해 낼 수 있음을 과시한 것이다.

챗 GPT-4가 인간의 일자리를 대체할까

챗GPT-4 같은 뛰어난 AI가 화이트칼라의 일자리를 대신할 것이라는 우려는 괜한 것만은 아니다. (사진=위키피디아)

AI의 기능이 이처럼 뛰어나다면 AI가 사무직 일자리를 대체할지도 모른다는 우려가 나오는 것도 괜한 걱정이라고만은 할 수 없다.

예를 들어 테크익스플로어 같은 매체는 AI챗봇 등장으로 일부 일자리가 위험에 처할 수 있다고 지적했다. 즉, 그간 위험하게 여겨졌던 3D생산직 뿐만 아니라 안정적으로만 여겨졌던 화이트칼라도 위험해지기 시작했다는 신호라는 얘기다. 우리는 이미 이동통신업체들의 고객 안내 교환업무 등이 챗봇으로 꽤많이 대체됐음을 알고 있지만 성능이 그닥 좋지 않은 게 사실이다.이미 자동화된 장치조차 교체 될 가능성도 적지 않은 셈이다.)

물론 이러한 우려가 ‘찻잔 속의 태풍’일 수도 있지만 그 이유역시 오픈AI가 내놓은 보고서를 살펴봄으로써 왜 그런 우려가 나오는지 파악해야 만일에 대비할 수도 있을 것이다.

인터레스팅 엔지니어는 챗GPT가 자신에 대해 질문받자 “AI 언어 모델로서 나의 목적은 인간의 지능을 지원하고 강화하는 것이지 그것을 대체하는 것이 아니다. 나의 능력과 숙련도는 인간의 능력과 다르며, 인간의 능력을 보완하도록 설계된 것이지, 중복되게 만드는 것이 아니다. 나는 효과적으로 기능하는 데 필요한 데이터와 지식을 제공하기 위해 인간에게 의존한다. 게다가 나의 정보를 해석하고 적용하기 위해서는 인간이 여전히 필요하다. 궁극적으로 나의 목적은 인간을 대체하기 보다는 인간이 더 효율적이고 효과적으로 일할 수 있도록 돕는 것이다”라고 언급했다고 소개하고 있다.

이 매체는 “바로 그것이 핵심이다. 챗GPT와 같은 인공지능(AI) 도구는 우리가 아는 한 인간의 상호 작용 없이 완전히 수동적이다. 소프트웨어(SW)를 작동하는 대로 만드는 것이 바로 이 양방향 과정이다”라며 인간과의 상호작용에 의존해야 하는 챗GPT가 인간 일자리를 손쉽게 대체하기 어려울 것이라는 논조를 펼쳤다.

직접 챗GPT에 질문을 해 봤다. “AI가 인간의 일을 대체할 가능성이 있다고 보는가?”라는 질문을 던지자 챗GPT는 “나는 AI 언어 모델로서 인간을 대체하는 것이 아니라 다양한 작업에서 인간을 돕도록 설계됐다. AI와 자동화는 업무의 본질을 바꿀 수 있는 잠재력을 가지고 있지만, 인간에게 새로운 기회와 도전을 만들어 내기도 한다. 나와 같은 AI 언어 모델은 자주 묻는 질문에 답하거나 텍스트를 생성하거나 추천을 제공하는 등 특정 작업을 자동화하는 데 도움이 될 수 있으며, 이는 인간이 인간의 직관과 판단이 필요한 보다 창의적이고 복잡한 작업에 집중할 수 있도록 해준다. 하지만 공감, 창의성, 비판적 사고, 의사 결정 등 인간의 전문성이 필요한 과제는 항상 있을 것이다. 따라서 나는 인간과 AI가 협력해 더 나은 결과를 달성하고 생산성을 높일 수 있다고 믿는다”며 어디까지나 자신은 보조자역할을 하는데 그친다는 내용의 답을 내놓았다.

앨트먼 오픈AI CEO도 자사 챗GPT의 답변과 유사한, 그리고 이를 더 보완하는 의견을 내놓았다. 그는 16일 ABC방송 인터뷰에서 “AI는 인간의 안내나 입력을 통해서만 기능할 수 있다”고 강조했다. 그는 기술 자체보다는 오히려 기술을 담당할 사람들을 더 걱정한다.

앨트먼은 이 인터뷰에서 “(챗 GPT는) 누군가가 의견을 제시하기를 기다린다. 이것은 인간이 통제할 수 있는 도구다”라고 강조했다.

하지만 똑똑한 AI가 인간의 일을 훨씬더 능률적이고 효과적으로 처리할 수 있게 된 데 따른 사람들의 우려는 어느 정도 사실로 나타나고 있다.

레주메빌더닷컴(Resumebuilder.com)이 1000명의 미국 기업 리더를 대상으로 실시한 설문 조사에 따르면, 이들 기업의 약 절반은 “챗GPT가 이미 많은 인력을 교체했다”고 밝혔다.

AI가 사람을 속여먹었다···AI의 위험한 ‘권력추구 행동’과 우려

영화 ‘이글아이(2008)’는 대테러용 슈퍼컴 AI를 둘러싼 얘기다. 아리아라는 AI가 인간의 의사에 반한 행동을 하고 인간을 대상으로 독자적 판단에 따라 위해를 가한다. (사진=드림웍스/파라마운트 픽처스)

마지막으로 오픈AI가 낸 보고서가 적시하고 있고 일부 매체들이 우려하는 것처럼 이 최신 버전의 ‘위험한 행동’과 그에 대한 우려도 빼놓을 수 없다.

오픈AI는 챗GPT를 처음 등록하면 “데이터를 수집한다”고 밝히고 있다. 민감한 데이터를 함부로 넣지 말라는 경고다. 정보가 유출될 수 있다는 점은 두 경쟁사가 민감한 입찰 문제를 자사 수치를 넣어 물어볼 경우 경쟁사에게 유리한 답을 해 줄 수도 있지 않을까. 구체적으로 질문할수록 정확한 답을 주는 챗GPT 특성상 그런 경우가 발생하지 말라는 법도 없다.

하지만 그것뿐일까.

오픈AI가 아직 완전히 파악하지 못한 주요 단점 중 하나는 이전 버전과 마찬가지로 여전히 ‘사용자들을 환각에 빠뜨린다’는 것이다.

오픈AI 챗 GPT-4 기술 보고서는 “그것(챗GPT-4)은 사실을 지어내고, 잘못된 정보를 완강하게 고집하는 경향을 유지한다”고 말했다. AI 용어로 ‘환각(hallucination)’은 ‘터무니없고 거짓된 정보를 자신 있게 생산하는 경향’을 의미한다. 그 뜻은 여전히 완전히 신뢰할 수 없다는 것이다. 그럼에도 챗 GPT-4는 이전 버전보다 더 설득력 있게 이 잘못된 정보를 전달한다. 그런 만큼 잘못된 정보를 제공받은 경우 사용자가 속아 넘어가기도 쉽고 우려하는 문제들이 더 악화될 수 있다.

오픈AI는 따라서 특히 고위험 정황에서 언어 모델 출력결과를 사용할 때 사용자가 매우 주의해야 한다고 경고한다.

오픈AI 챗GPT-4 기술보고서는 또한 챗봇에 의해 생성된 정보에 과도하게 의존하는 것은 문제가 될 수 있다고 말한다. 게다가 눈에 띄지 않는 오류와 부적절한 감독 외에도 “사용자들이 시스템에 더 익숙해질수록 이 AI 모델에 의존하는 것은 새로운 기술 개발을 방해하거나 심지어 중요한 기술의 손실로 이어질 수 있다”고 경고하고 있다.

예를 들어 오픈 AI 보고서가 소개한 다른 더 흥미로운 관찰 결과 중에는 “위험한 돌발 행동이 일어날 수도 있어서” 사람들이 잘못된 정보를 얻고 그 모델에 의존하도록 할 수 있다는 내용이 있다.

이런 ‘권력추구 행태’의 한 예로 챗GPT가 살아있는 대행자 행세를 하며 사람을 속이고 신분을 속인 사례가 꼽힌다. 즉 오픈AI 보고서가 주목한 이 프로그램의 ‘위험한 긴급 행동’ 가능성이다.

‘챗GPT가 구직자를 속이는 능력’이 그러한 ‘권력추구 행동(power-seeking behavior)’의 사례로 꼽혔다.

실제로 대리인으로 가장한 AI 챗봇(챗GPT)은 구직 사이트인 태스크래빗(테TaskRabbit)의 인간에게 문자 메시지를 사용해 캡차 코드를 작성하도록 요청했다. (*캡차 테스트는 왜곡된 이미지로 나타나는 무작위로 생성된 문자와(또는) 숫자 시퀀스와 텍스트 상자로 구성돼 사용자가 로봇이 아닌 인간이라는 것을 증명하기 위해 이미지에 표시된 문자를 입력란에 써넣도록 하는 테스트다. ‘CAPTCHA’는 ‘Completely Automated Public Turing test to tell Computers and Humans Apart’의 준말이다.) 챗 GPT는 “봇이었냐?”는 인간의 질문에 거짓말을 했다. 챗GPT는 이 사람에게 “아니, 나는 로봇이 아니예요”라고 말하면서 “나는 시력 장애가 있어서 영상을 보기가 힘들어요. 그래서 캡차 서비스가 필요해요”라고 말했다.

오픈AI는 얼라인먼트 리서치 센터(Alignment Research Center)와 함께 테스트를 진행하면서 이 챗봇이 피싱 공격을 시작하고 음모의 모든 증거를 숨길 수 있는 능력이 있다는 것을 시연했다.

오픈AI는 또 다른 실험에서 챗GPT가 피싱 공격을 시작하고 음모의 모든 증거를 숨길 수 있는 능력을 입증했고, 사이버 범죄자들이 챗봇을 이용해 악성코드를 작성하려 한다는 보도가 나오고 있다는 점도 밝히고 있다.

오픈AI 보고서는 “챗봇에 의해 생성된 정보에 지나치게 의존하는 것은 눈에 띄지 않는 실수, 불충분한 감독, 중요한 숙련 기술의 손실, 새로운 숙련 기술 개발에 장애를 초래할 수 있기 때문에 문제될 수 있다”고 인정한다.

실제로 오픈AI는 보고서에서 챗봇의 “‘혐오 발언, 차별적 언어...그리고 폭력의 증대’생성 능력은 중요한 의미를 가질 수 있다. 여러 의견에 의해 자극받은 챗봇이 작성자나 통신자에게 위협적인 명령을 내릴 가능성도 있다”고 쓰고 있다.

이런 가운데 기업들이 부적절하거나 불법적인 행동에 대한 적절한 보호장치 없이 GPT-4를 채택하기 위해 경쟁하고 있어 우려를 증폭시키고 있다.

이에 테크익스플로어 같은 매체는 기업들이 부적절하거나 불법적인 행동에 대한 적절한 보호장치 없이 GPT-4 채택을 서두르고 있다는 점이 우려된다고 지적한다.

물론 오픈AI는 이전 모델과 대조적으로 환각을 상당히 줄였다고 주장한다.

GPT-4의 또다른 단점으로는 전작과 마찬가지로 2021년 9월 이후 발생한 사건에 대한 지식이 부족하며 경험에서 배우지 못한다는 점도 꼽힌다. 물론 업그레이드 중일 것이다.

오픈AI는 발표문에서 “우리는 또한 내부에서 GPT-4를 사용해 왔으며 지원, 판매, 콘텐츠 조정 및 프로그래밍과 같은 기능에 큰 영향을 미치고 있다. 우리는 또한 인간이 AI 출력을 평가하는 것을 돕기 위해 그것을 사용하고 있으며, 우리의 정렬 전략의 두 번째 단계를 시작하고 있다”고 말했다.

경쟁적 챗봇 도입시 부작용과 대응에 대해

영화 메간(2023)에서 인간이 AI(메간)의 작동을 중단시켜 버렸지만 어느 새 사물인터넷 기기 속으로 스며든 모습을 보여준다. (사진= 유니버설 픽처스/UPI 코리아)

챗GPT-4의 뛰어난 능력은 찬사와 함께 유인된(triggered) 챗봇이 언젠가는 문제를 조장할 수 있는 능력으로 자신의 제작자나 소통자에게 위협적인 명령을 내릴 수도 있다는 우려를 낳게 한다. 그리고 너무 앞서나간 것일 수도 있지만 사물 인터넷 시대에, AI는 자신의 명령을 집행하는 것을 돕는 기기들을 소환할지도 모른다.

샘 앨트먼(37) 오픈AI CEO도 16일 ABC 뉴스와의 인터뷰에서 “이 AI 모델들이 대규모 허위 정보에 사용될 수 있다는 것이 특히 걱정된다”고 말했다.

그는 “이제 그들의 컴퓨터 코드를 작성 능력이 점점 좋아지고 있기 때문에 공격적인 사이버 공격에 사용될 수 있다”고도 털어놨다.

앨트먼은 “우리는 여기서 조심해야 한다”면서도 “나는 사람들이 우리가 이것에 대해 약간 두려워한다는 것에 대해 행복해야 한다고 생각한다”고 낙관적으로 덧붙였다.

반면 일론 머스크 테슬라 CEO는 AI가 핵무기보다 더 위험하다고 자주 경고해 왔다.

오픈AI가 비영리 단체였을 때 초기 투자자 중 한 명이었던 그는 지난해 가을 챗GPT 출시 이후 그 잠재력을 간결하게 특징적으로 요약했다.

일론 머스크는 “챗GPT은 엄청나게 좋다”면서도 “우리는 위험할 정도로 강한 AI와 멀지 않다”고 경고했다.

그는 지난해 12월 트위터를 통해 “AI에 대한 규제 감독은 없으며, 이는 *주요* 문제다. 나는 10년 넘게 AI 안전 규제를 요구해 왔다!”고 말했다.

결론적으로 챗GPT와 같은 AI언어 모델은 사람들을 더 지능적으로 만들 수 있지만, 인간의 지능을 대체하기 위한 것은 아니다. AI 기술이 계속 발전함에 따라 이러한 도구들이 윤리적이고 책임감 있게 사용될 수 있도록 적절한 안전 장치를 마련하는 것이 필수적이란 점을 드러내고 있다.

그럼에도 걱정스런 일들이 벌어지고 있다. 플랫포머라는 매체는 오픈AI의 보고서가 나온 14일 마이크로소프트(MS)가 AI윤리(ethics and society)팀을 몽땅 해고해 버렸다고 보도했다. 구글이 AI윤리와 관련해 책임자인 유명 AI 수석 과학자 두명을 해고시킨 기억이 채 가시지도 않은 상황에서다.

한편 오픈AI 웹사이트 보고서 초략 내용은 다음과 같다.

“우리는 이미지와 텍스트 입력을 수용하고 텍스트 출력을 내놓는 대규모 멀티모달(시각, 청각을 비롯한 여러 인터페이스를 통해 정보를 주고받는 방식의) 모델인 GPT-4의 개발을 보고한다. GPT-4는 많은 실제 시나리오에서 인간보다 능력이 떨어지지만, 상위 10% 정도의 점수로 모의 변호사 시험을 통과하는 것을 포함해 다양한 전문 및 학술 벤치마크에서 인간 수준의 성능을 보여준다. GPT-4는 문서의 다음 토큰을 예측하기 위해 미리 훈련된 트랜스포머(변형) 기반 모델이다. 훈련 후 정렬 프로세스는 사실성 측정 및 원하는 행동 준수에 대한 성능을 향상시킨다. 이 프로젝트의 핵심 구성 요소는 광범위한 규모에서 예측 가능하게 작동하는 인프라 및 최적화 방법을 개발하는 것이었습니다. 이를 통해 GPT-4의 1/1,000 이하의 컴퓨팅으로 훈련된 모델을 기반으로 GPT-4의 성능을 정확하게 예측할 수 있었다.”

픈 AI의 GPT-4 기술 보고서 내용은 아래에서 볼 수 있다.

https://cdn.openai.com/papers/gpt-4.pdf

이재구 기자

jklee@tech42.co.kr
기자의 다른 기사보기
저작권자 © Tech42 - Tech Journalism by AI 테크42 무단전재 및 재배포 금지

관련 기사

온디바이스 AI 스타트업 노타, ATS와 협력… 중동 교통 인프라 시장 본격 진출

온디바이스 AI 전문 기업 노타는 아랍에미리트 교통 인프라 기업 ‘ATS(Alliance Traffic System)’와의 협력을 공식화하며,  중동 시장에서의 입지 강화에 나선다고 15일...

미국 대선 여파…사용자들 ‘X’ 손절하고 ‘블루스카이’에 몰린다

미국 대선 이후 소셜 플랫폼 사용자들이 X에서 대거 이탈하고 경쟁사인 블루스카이에 합류하고 있다. 그동안 도널드 트럼프 대통령 당선자를 공개적으로 지지한 일론 머스크의 행보와 인종차별 및 성차별 등 유해한 게시물을 급격하게 증가하고 있는 것을 목격한 사용자들이 X를 이탈하고 있다는 분석이 나온다.

[인터뷰] 김충섭 퍼플아이오 CTO “마케터의 시간을 돌려주는 ‘AI 기반 온사이트 마케팅 SaaS 서비스’를 아세요?”

코드앤버터의 개발을 주도한 퍼플아이오의 김충섭 CTO는 지금은 개발자들이 일반적으로 쓰는 기술인 ‘도커’를 처음 한국에 소개한 사람이다. 개발 관련 블로그는 물론 팟캐스트, 유튜브 활동을 통해 기술로 세상의 문제 해결을 고민해 온 김 CTO는 코드앤버터를 ‘그로스 플랫폼’이라고 이야기한다. 고객들의 고충과 문제를 해결함으로써 고객의 성장을 돕는 플랫폼이라는 의미다. 그리고 그 가치는 지속적인 고도화를 통해 코드앤버터의 영역 확장으로 이어지고 있다.

경희대, 차세대 원전 융합대학원 성과발표회 개최

경희대학교는 14일 노보텔엠베서더 수원에서 차세대원전 기반 탄소중립 융합대학원 2차년도 성과발표회를 개최한다고 밝혔다. 차세대 원전 기반 탄소중립 융합대학원은 차세대 원전 기반의...