26일 인텔과 삼성전자가 서울 중구에 위치한 복합문화공간 뉴스 뮤지엄 을지로점에서 공동으로 기획한 미디어 아트 전시회 '터치 더 리얼'에 전시된 조영각 미디어 아티스트의 작품./전병수 기자
“갤럭시 북에 담긴 생성형 인공지능(AI) 기술이 어떻게 예술가에 영감을 주고, 인간의 창의적인 표현이 넓어질 수 있는지 소비자들에게 보여주고자 전시회를 기획했다. 삼성전자뿐만 아니라 생성형 AI를 제공할 수 있는 소프트웨어 업체들과도 협력해 올해 안에 100개 이상의 생성형 AI를 지원하는 소프트웨어를 제공하고, 그 숫자를 매년 2배 이상 늘려갈 것이다.”
26일 인텔과 삼성전자가 서울 중구에 위치한 복합문화공간 뉴스 뮤지엄 을지로점에서 공동으로 기획한 미디어 아트 전시회 ‘터치 더 리얼’ 환영사에서 배태원 인텔코리아 부사장은 이같이 말했다. ‘터치 더 리얼’은 삼성전자가 출시한 갤럭시 북4 시리즈의 AI 기능을 바탕으로 제작된 미디어 아트를 소개하는 전시회다. 갤럭시 북4 시리즈에는 인텔의 첫 AI 프로세서이자 최초로 신경망처리장치(NPU)를 탑재한 코어 인텔 울트라 프로세서가 탑재된다. 배 부사장은 “AI가 주도할 미래를 인텔과 삼성전자가 함께 선도할 것임을 알리는 첫걸음이 될 것”이라고 덧붙였다.
이날 전시회에는 배태원 인텔코리아 부사장을 비롯해 이민철 삼성전자 MX사업부 에코비즈팀장(상무), 이호중 삼성디스플레이 상무, 전시회에 전시된 작품을 제작한 조영각 미디어 아티스트 등이 참석했다. 이민철 상무는 환영사에서 “갤럭시 북4에는 AI 기능을 전담하는 NPU가 탑재돼 창작 활동을 지원한다”며 “이번 전시회는 여러 작가들의 창의적인 관점이 접목돼 전시회 방문객들에게 예술적 경험을 제공할 수 있는 뜻깊은 자리가 될 것”이라고 했다.
총 3개층으로 운영되는 전시장에는 조영각 미디어 아티스트와 서울과 베를린에서 활동하는 용세라 그래픽 디자이너, 도파민최 팝아티스트, 에세이 작가 태재 등의 작품과 갤럭시 북4 제품들이 전시됐다. 전시된 작품들은 인텔 코어 울트라 프로세서가 탑재돼 AI 성능을 고도화한 갤럭시 북4의 AI 기능을 활용해 제작됐다. 인텔에 따르면 코어 울트라는 이전 세대와 비교해 2.5배 높은 전력 효율과 AI 가속 기능을 지원한다. AMD 등 경쟁사 제품을 탑재해 구동한 AI PC보다 40% 뛰어난 성능을 구현한다. 해당 프로세서는 ‘삼성 갤럭시 북 4 시리즈’, LG전자 ‘LG그램 16′ 등 AI PC에 탑재된다.
전시장 1층은 AI 기술이 작품 제작의 보조 수단을 넘어 작품의 주인공 역할을 할 수 있다는 개념을 담은 ‘AI 작가주의’를 주제로 구성됐다. 이곳에는 조영각 미디어 아티스트 ‘속담모음집 verse.2′이 전시됐다. 이 작품은 한국 속담 5개와 영미권 속담 5개를 텍스트 프롬프트(명령어)로 변환하고, 생성형 AI 중 텍스트 기반의 프롬프트 엔지니어링으로 구성했다. 조 씨는 “인간의 언어를 AI가 해석하면 어떤 모습일지 구현하고자 했다”며 “인간의 오랜 지혜인 속담을 AI가 이해하고 해석한 이미지를 통해 우리는 삶의 언 한 장면을 다 생생히 바라보는 경험을 하게 될 것”이라고 했다. 조 씨의 작품은 삼성디스플레이의 퀀텀닷(QD)-유기발광다이오드(OLED) 패널이 탑재된 디스플레이를 통해 전시됐다.
'터치 더 리얼' 전시회 2층에 전시된 에세이 작가 태재의 작품 ‘화분에게’./전병수 기자
전시장 2층은 ‘Can A.I Help You?’ 섹션으로 구성돼 AI가 창작 과정에 어떻게 기여할 수 있는지, AI가 예술가들에게 어떻게 영감을 주고 협업에 참여할 수 있는지를 다양한 작품을 통해 소개했다. 이 곳에는 에세이 작가 태재와 용세라 디자이너, 팝 아티스트 도파민최가 제작한 에세이 한 편과 3점의 그래픽 작품이 전시됐다. 모든 작품은 갤럭시 북4 시리즈로 제작됐다. 태재는 자신의 작품 ‘화분에게’를 소개하며 “책과 침대, 스마트폰, 노트북과 같은 사물들 사이에서 인간과 같이 살아 숨쉬는 식물을 보며 오히려 비현실감을 느꼈다”며 “이 같은 감정을 생생한 디스플레이를 통해 구현하고자 했다”고 설명했다.
전시장 3층에는 갤럭시 AI 스튜디오와 갤럭시 유니버스로 구성돼 갤럭시 북4 제품군과 삼성디스플레이의 OLED 디스플레이 제품이 탑재된 ‘플렉스 노트’와 ‘플렉스 S’, ‘플렉스 G’ 등이 전시됐다. 인텔코리아 관계자는 “이번 전시회에서 인텔 코어 울트라 프로세서와 한층 업그레이드된 갤럭시 북4가 선사하는 예술의 세계를 만나볼 수 있을 것”이라고 설명했다. 이번 전시회는 이달 27일부터 다음 달 12일까지 2주간 진행된다.
출처 : https://biz.chosun.com/it-science/ict/2024/01/26/LTCW4HN6XRC3PD6VZ3SIEKW57I/ 전병수기자
구글 클라우드는 인공지능(AI) 스타트업 허깅페이스와 새로운 전략적 파트너십을 체결했다고 26일 밝혔다.
구글클라우드 로고./ 구글클라우드 제공
허깅페이스는 이번 파트너십을 통해 AI 대중화 비전을 가속화하고 구글 클라우드는 오픈소스 AI 생태계 발전을 위한 지원을 강화한다. 구글 클라우드는 허깅페이스의 전략적 클라우드 파트너이자 학습 및 추론 워크로드를 위한 우선 대상자로 선정됐다.
양사는 개발자가 구글 클라우드에서 대규모 AI 모델을 더 빠르고 비용 효율적으로 학습 및 제공할 수 있도록 긴밀히 협력할 예정이다.
개발자는 허깅페이스 플랫폼에서 간단한 클릭만으로 버텍스 AI(Vertex AI)를 사용해 허깅페이스 모델을 학습, 튜닝 및 제공할 수 있다. 이를 통해 구글 클라우드의 특화된 엔드 투 엔드(end-to-end) MLOps 서비스를 쉽게 활용하여 생성형 AI 애플리케이션을 구축할 수 있다.
나아가 구글 쿠버네티스 엔진(GKE) 배포 지원으로 개발자는 허깅페이스에서 자체 설정한 인프라를 이용해 워크로드를 학습, 튜닝 및 제공하고, GKE에서 허깅페이스 전용 딥 러닝 컨테이너(Deep Learning Containers)를 이용해 모델을 확장할 수 있다.
버텍스 AI와 GKE는 올해 상반기 중 허깅페이스 플랫폼에 배포 옵션으로 제공될 예정이다.
양사의 파트너십으로 더 많은 오픈소스 개발자가 클라우드 TPU(Cloud TPU) v5e를 사용할 수 있게 됐다. 클라우드 TPU v5e는 이전 버전에 비해 달러당 최대 2.5배 더 높은 성능을 제공하고 추론 지연 시간은 최대 1.7배 단축한다.
이외에도 인퍼런스(Inference), 엔드포인트(Endpoints), 스페이스(Space), 오토트레인(AutoTrain) 등 허깅페이스 관리형 플랫폼에 대한 간단한 관리 및 과금 기능이 구글 클라우드 마켓플레이스를 통해 제공될 예정이다.
토마스 쿠리안 구글 클라우드 CEO는 “양사는 개발자가 생성형 AI를 보다 손쉽게 활용하고 영향력을 발휘할 수 있도록 지원하는 비전을 공유하고 있다”면서 “이번 파트너십으로 개발자는 허깅페이스에서 구글 클라우드의 AI 플랫폼인 버텍스 AI와 보안 인프라를 활용해 차세대 AI 서비스와 애플리케이션 구축을 가속화할 수 있을 것”이라고 했다.
출처 : https://biz.chosun.com/it-science/ict/2024/01/26/UYSYQN2KP5GKPHZKKOV3RBTNLM/ 김송이기자
“AI 시대 데이터 처리 증가로 ‘CXL’ 수요 늘 것”
정명수 파네시아 대표./파네시아 제공
컴퓨트익스프레스링크(CXL)는 중앙처리장치(CPU)와 메모리 반도체, 인공지능(AI) 가속기 등을 연결해 연산 정보 공유의 효율성을 극대화하는 차세대 인터페이스 통신 규약이다. CXL을 활용하면 이론상 D램 용량을 무한대로 확장할 수 있다. 처리해야 하는 데이터가 급격히 늘어 연산 병목 현상이 발생할 수 있는 인공지능(AI) 기술에 최적화됐다는 평가를 받는다. 현재 삼성전자와 SK하이닉스는 CXL 2.0 D램을 개발해 상용화를 앞두고 있다. 시장정보업체 욜그룹은 세계 CXL 시장 규모가 오는 2028년 150억달러(약 20조원)에 이를 것이라고 전망했다.
정명수(44) 파네시아 대표는 카이스트 전기 및 전자공학부 교수다. 정 대표는 2019년부터 카이스트 출신 석·박사 인력들과 CXL 연구개발에 몰두하기 시작했다. 정 대표는 “2019년 인텔 주도의 CXL 프로토콜이 확립되기 시작하면서 그동안 해오던 데이터 공유 관련 연구 방향을 CXL에 집중했다”고 설명했다.
정 대표는 CXL 원천 특허와 기술력을 바탕으로 지난 2022년 8월 CXL 설계자산(IP) 스타트업 파네시아를 설립했다. 파네시아는 세계 최초로 CXL 3.0 IP를 개발했으며, 세계 최대 IT 전시회 ‘CES 2024′에서 메모리 용량 제한이 없는 CXL 탑재 AI 가속기를 출품해 혁신상을 수상했다. 정 대표는 “오랜 기간 CXL IP 연구에 집중해 CXL 관련 원천 특허를 보유한 것이 글로벌 기업에 앞서 CXL IP 개발에 성공할 수 있었던 이유”라고 설명했다.
파네시아는 지난해 9월 160억원 규모의 시드 라운드 투자금을 유치해 과제 지원금을 포함해 230억원 규모의 자금을 확보했다. 현재 기업가치는 1034억원을 인정받았다. 파네시아는 CXL IP뿐만 아니라 CXL에 탑재되는 디바이스들을 연결하는 핵심 장치인 ‘CXL 스위치’까지 개발한 상태로 양산에 나설 계획이다. 정 대표는 “CXL 스위치는 올해 3~4분기 멀티 프로젝트 웨이퍼(MPW) 실리콘 검증을 완료하고, 추후에는 양산에도 나설 것”이라고 했다.
파네시아는 메타와 ARM, HPE(휴렛팩커드엔터프라이즈) 등과 협업을 논의하고 있다. 정 대표는 “AI 시장이 발전할수록 필요한 데이터 처리량이 기하급수적으로 증가할 수밖에 없다”며 “이에 따라 발생할 수 있는 연산 병목 현상을 해소하면서 연산 효율까지 제고할 수 있는 CXL에 대한 수요도 확대될 것”이라고 했다.
지난 19일 대전 충남대에서 열린 CXL 테크데이에서 진행한 인터뷰에서 정 대표는 “CXL의 필요성은 업계에서도 예전부터 인지하고 있는 상태”라며 “고객사들의 사업성 검토가 끝나는 시점에 상용화가 이뤄질 것”이라고 했다. 다음은 정 대표와의 일문일답.
—CXL 2.0, CXL 3.0, 3.1 IP를 빠른 시간에 개발했다.
“쉽게 이야기하면, 책을 CXL 장치라고 했을 때 CXL 1.1은 각 사용자의 개인방에 있는 책장 정도의 환경을 제공하고, 2.0은 동네 서점 정도로 책을 풀링(Pooling)한다. 풀링은 서버 플랫폼에서 여러 개의 CXL 메모리를 묶어 풀(Pool)을 만들고, 여러 호스트가 풀에서 메모리를 필요한 만큼 나눠 사용할 수 있는 기술이다. 동네 서점에서 누군가 빌려간 책은 다른 사람이 빌려갈 수 없다는 점에서 풀링을 이해하면 된다. CXL 3.0·3.1은 전자책을 모아둔 온라인 서점으로 보면 된다. 누군가 보는 동안 다른 사람도 볼 수 있다.
책을 CXL 장치라고 가정했는데, 온라인 서점을 생각해보면 서점 자체도, 그리고 책도 공급하는 방법이 달라야 한다. 마찬가지로 2.0과 3.0은 기능적인 면과 성능 상의 차이가 있다. CXL 3.0·3.1의 하드웨어들은 CXL 2.0의 두배 속도인 64GT/s에서 동작해야 한다. 파네시아는 이러한 차이를 구현하는 CXL 스위치와 종단간(End-to-End) 프로토콜, 하드웨어 기능, 소프트웨어 스택에 대한 다양한 특허를 CXL이 정립되기 전에 확보했다.”
—글로벌 반도체 기업에 앞서 CXL IP를 개발할 수 있었던 비결은.
“파네시아는 설립 이전부터 CXL의 구동과 데이터 공유 환경 구축에 필수인 하드웨어 설계자산(IP)들과 관련 소프트웨어 기술에 집중하고 있었다. 때문에 CPU와 AI 가속기 등을 잇는 종단간 연결에 대한 원천 특허를 확보했다. 이를 기반으로 빠른 시간에 CXL 3.0, 3.1 등을 개발할 수 있었다. 지금도 메모리나 프로세서 등에 특화해 CXL을 개발하는 기업들과 달리, 종단간 연결 연구에 몰두하며 CXL 전반에 대한 방향성 제시와 CXL 생태계 구축을 위해 애쓰고 있다.
CXL IP뿐만 아니라 멀티레벨 CXL 스위치까지 개발한 상태다. CXL 스위치는 최신 공정에서 올해 3~4분기 MPW 실리콘 검증을 완료하고, 추후 양산에 나설 계획이다. CXL 스위치는 CXL에 탑재되는 다양한 종류의 디바이스들을 다수 연결하는 핵심 장치다. CXL에 머리와 팔, 다리 역할을 하는 각종 기기들을 잇는 몸통과도 같은 역할을 수행한다. CXL 스위치 원천 특허도 보유하고 있으며, 업계 최초로 개발한 것이다.”
—CXL 2.0 IP나 3.0·3.1 IP가 어느 시점에 상용화될 것으로 기대하는지.
“CXL 상용화가 섣불리 이뤄지긴 어렵다. 종단간 통신이 가능한 대형 시스템 구현은 IP 기업 혼자서 추진할 수 없다. CPU, AI 가속기, 메모리 반도체 기업 간에 협의가 이뤄져야 한다. 각 기업이 CXL의 필요성을 인식하고 이를 지원할 수 있는 제품을 개발해야 한다.
따라서 CXL 생태계가 먼저 구축돼야 한다. CXL은 단순히 연구와 개발의 영역만이 포함되는 것이 아니기 때문에 산업계에서 사업성을 고려해야 한다. CXL을 메모리 사업에 하나의 포트폴리오로 넣는 것이 사업성이 있는지 검토하는 것이다. 빅데이터를 담고 처리할 수 있는 초대용량 메모리의 필요성과 CXL 활용의 수익성은 인지하고 있다. 잠재 고객사와 미팅할 때도 사업의 수익성까지 포함해 자문하고 있다.”
—메타 같은 빅테크 기업과 CXL 관련 협력을 논의하고 있는데.
“빅테크 기업이 제공하는 머신러닝 서비스의 정확도를 2%포인트(P) 향상시키기 위해서는 메모리를 10배 늘려야 한다. 정확도가 2%P 증가하면 빅테크 기업의 매출은 4%P 가까이 증가한다는 결과가 있다. AI 시장이 발전할수록 필요한 데이터 처리량이 기하급수적으로 증가할 수밖에 없고 통신 병목 현상을 해소하면서 연산 효율까지 한번에 제고할 수 있는 CXL 수요도 확대될 것이다.
HPE에서도 파네시아를 초청해 단독으로 대규모 미팅을 진행할 예정이다. 서버 회사들 입장에서도 앞으로 처리해야 할 대용량 데이터들이 많아지면 결국은 CXL 종단간 통신이 되는 구조를 탐색할 수 밖에 없다. HPE가 서버 시장에서 경쟁력을 강화하기 위해 파네시아의 CXL 기술력을 활용할 수 있는 방안을 고려하고 있어 협업을 추진하고 있다.”
—CXL IP와 스위치 외에 도전하고 있는 분야가 있는지.
“바이오 정보과학 데이터 처리와 벡터 서치, 딥러닝 기반 추천 시스템이 들어간 고성능 CXL 메모리 장치와 고성능 컴퓨팅에 사용되는 CXL 메모리 장치 등을 선보일 예정이다. 새로운 통신 기법을 설계하고 구현하는 데 있어 CXL 외에도 실리콘 칩과 칩을 연결하는 칩렛(Chiplet) IP, DDR 등의 메모리 컨트롤러 IP들을 개발하고 있다.”
출처 : https://biz.chosun.com/it-science/ict/2024/01/27/LM6J2DGN6RD3JFNDZTSIR52EFE/ 전병수 기자