네이버는 네이버클라우드·네이버랩스가 합작해 구축한 웹 플랫폼 기반 로봇 전용 운영체제(OS) '아크마인드'로 전 세계 웹 개발자와 로봇 서비스를 만들어 나가겠다고 5일 알렸다.
아크마인드는 팀네이버 웹 플랫폼, OS, 로봇 기술이 집약돼있다. 웹 개발자들과 로봇 서비스 개발을 연계해 로봇 생태계를 풍성하게 만들자는 목표로 개발된 아크마인드는, 웹 기반의 확장성 높은 개발 환경, 하드웨어 제어를 위한 로봇 전용 웹 API, 네이버클라우드 플랫폼 다양한 솔루션을 제공할 예정이다.
로봇 최적화 웹API 제공·심플한 아키텍처·OTA 지원 등 차별화된 기술 갖춰
주로 PC, 스마트폰 중심의 기존 웹 플랫폼 기반 OS는 물리공간에서 인지, 이동, 동작 등을 수행하는 로봇 특수성과 HW를 반영하기 어려웠다. 반면 아크마인드는 웹 생태계의 소프트웨어를 로봇 서비스로 연결하고 다수의 이기종 로봇 HW도 직접 제어할 수 있도록 로봇에 최적화된 웹API를 제공한다.
아크마인드는 웹 플러그인 기술을 활용해 로봇의 위치·움직임 제어, 판단이 필요한 자율주행 서비스 등을 웹으로 구동할 수 있는 전용API를 제공하고, 도커(Docker) 환경에서 AI 서비스를 쉽게 적용할 수 있도록 로봇 전용 기능을 지원할 예정이다. 기존 로봇 SW 개발에 필수적으로 사용됐던 오픈소스 프레임워크인 ROS와 통신할 수 있는 전용 API도 제공한다.
또한, 아크마인드는 불필요한 요소 없이 단순한 아키텍처로 구성돼 기존 로봇 OS에 비해 가볍고 빠르다. 또, OTA 방식을 지원해 OS 업데이트만으로도 새로운 서비스 및 기능을 로봇에 쉽게 적용할 수 있고, 서버 방식으로 서비스 업데이트를 배포할 수 있어, 다수 로봇에 새로운 서비스를 빠르게 적용하고 지속적으로 이용자의 만족도를 개선하는 데에도 용이하다. 마지막으로, 아크마인드는 로봇 HW 및 응용 SW를 제어하고 모니터링하는 다양한 기능도 제공한다. 도난당한 로봇의 데이터를 초기화하거나, 서버에서 CPU 온도 및 스토리지 용량 제어 등도 가능하다.
“로봇 서비스 무한 확장 기대”…오픈 플랫폼 확대 목표
웨일OS로 구축·개발된 아크마인드는 웹 기술 기반으로, 특정 OS에 종속된 개발도구를 쓰지 않아도 웹 생태계에서 로봇 서비스를 개발할 수 있는 환경을 제공한다. 특정 플랫폼에 종속되지 않는 유니버설 플랫폼인 웹을 기반으로 하기에, 웹 개발자도 로봇 전용 API, HTML, CSS 등을 통해 웹 표준에 맞춰 로봇 서비스를 개발하고 이를 웹에서 쉽게 통합·확장할 수 있다. 즉, 글로벌 웹 개발자 누구나 로봇 서비스 개발이 가능하다는 의미다.
원문 : https://zdnet.co.kr/view/?no=20240305095616
넥슨은 오는 18일부터 22일까지(현지시각) 미국 샌프란시스코에서 개최되는 글로벌 게임 개발자 콘퍼런스 ‘GDC(Game Developers Conference) 2024’에 참가한다고 4일 밝혔다.
넥슨의 글로벌 NFT(대체불가토큰) 게임 생태계 ‘메이플스토리 유니버스’가 행사에 ‘넥스페이스(NEXPACE)’ 프로젝트명으로 참가하며, 20일 넥스페이스의 블록체인 설계를 담당하는 김정헌 전략 헤드가 나서 ‘Bringing Real World Economy in MMORPG(MMORPG와 현실 경제의 접목)’ 주제의 발표를 진행한다.
해당 세션에서는 블록체인 기반 PC MMORPG(다중접속역할수행게임) '메이플스토리N'의 진화된 경제모델에 관한 설명을 비롯해, 이를 개발해 나가는 과정에서의 다양한 인사이트를 소개할 예정이다.
오는 21일에는 ‘데이브 더 다이버(이하 데이브)’ 개발을 총괄하는 황재호 디렉터가 ‘Characters and Humor: Problem-Solving-Aid in ‘DAVE THE DIVER(캐릭터와 유머: 데이브 더 다이버의 문제 해결)’라는 주제로 등단한다. ‘데이브’의 다양한 게임 시스템을 유저가 쉽게 이해할 수 있도록 유머러스한 캐릭터와 스토리를 활용한 사례를 소개한다.
한편, ‘데이브’는 이달 20일 진행되는 ‘게임 개발자 선정 어워드 2024(Game Developers Choice Awards 2024, GDCA)’에서 올해의 게임, 최고의 데뷔 게임 부문에 후보로 올랐다.
원문 : https://www.newsis.com/view/?id=NISX20240304_0002647541&cID=13008&pID=13100
기업들이 올해도 자바와 인재에 대한 투자를 지속해서 확대할 전망이다.
6일(현지시간) 인포월드 등 외신에 따르면 퍼포스 소프트웨어는 2024년 자바 개발자 생산성 보고서를 발표했다.
자바 개발자 생산성 보고서는 최근 자바 개발 동향 및 분석에 대한 통찰을 제공하기 위한 분석자료다. 총 72개국에서 대기업에서 중소기업을 아우르는 다양한 분야의 자바 개발자 440명이 설문에 참여했다.
보고서에 따르면 자바는 올해도 개발 분야에서 중요한 역할을 담당하며 기업들이 관련 투자를 확대할 것으로 예상된다.
설문 응답자 중 60%는 기업에서 자바 개발자를 추가할 계획이며, 42%는 자바 개발 도구 예산을 증가시킬 계획을 마련하고 있다고 밝혔다.
응답자 중 31%는 개발 도구에 대한 연간 예산이 개발자당 500달러 이상이라고 답했다. 지난해 22%였던 수준과 비교해 10% 가까이 증가한 수치다.
자바 사용자가 증가할 것으로 예상되는 요인 중 하나는 오라클이 장기 지원(LTS) JDK 버전의 발행 빈도를 3년에서 2년으로 단축했기 때문이다. 빠른 버전 향상으로 기업들이 최신 버전의 자바 활용하기에 유리할 것이란 전망이다.
또한, 클라우드 컴퓨팅, 엔터프라이즈 앱, 모바일 앱 분야의 활성화와 함께 자바 개발자의 수요가 증가할 것으로 예상됐다.
버전 별 사용 비율로는 자바 8이 24%로 가장 높은 사용률을 기록했으며 이어서 자바17이 23%로 2위를 기록했다. 자바11은 18%의 사용자가 사용하는 것으로 나타나며 3위를 기록했다.
최신 버전인 자바 20과 자바 21은 각각 11%와 6% 점유율을 기록했다.
자바 8은 이미 많은 기업과 개발자 커뮤니티에서 널리 사용되고 검증된 버전으로 다양한 앱이나 라이브러리 호환성 및 안정성 등을 꾸준히 활용되고 있는 것으로 나타났다.
2023년 대학정보공시 결과, 우리 대학 졸업생의 취업률이 72.5%, 유지취업률이 90.9%(2022년 12월 31일 기준)으로 나타났다. 전년도 취업률 67.1%, 유지취업률 90.6%보다 각각 5.4%P, 0.3%P 높아진 수치다. 올해 취업률과 유지취업률이 모두 상승하면서 우리 대학은 취업의 양과 질이 고루 우수한 것으로 나타났다. 이는 코로나 팬데믹이 종료되어 항공산업이 정상화되고 우주항공산업에 대한 기대가 높아지는 등의 대외변화와 교내 취업지원 프로그램 활성화 등 대내요인이 맞물렸기 때문인 것으로 보인다.
더 자세히 살펴보면 취업률은 서울·인천·경기 지역 대학 기준 8위를 차지했으며(분교 및 특수대학 제외), 전국 사립대학 평균 취업률인 67.2%보다 크게 높게 나타났다. 특히 2019년 취업률 71.2%를 기록한 이후 4년 만에 다시 70%대의 취업률을 회복하여 의미 있는 성과로 평가되고 있다.
유지취업률은 서강대에 이어 전국 대학 중 2위인 것으로 나타났다(교육대학 제외). 유지취업률은 건강보험 DB를 바탕으로 취업자들이 일정 기간이 지난 후에도 해당 직장에서 계속 근무하고 있는지를 조사한 지표로, 유지취업률이 높을 수록 취업의 질이 우수한 것으로 평가받는다.
학과별로 살펴보면 신소재공학과가 82.5%로 전체 학과 중 취업률 1위를 차지했다. 뒤를 이어 소프트웨어학과(77.1%), 항공우주 및 기계공학부(73.4%), 항공전자정보공학부(73.1%), 항공운항학과(72.2%), 항공교통물류학부(71.2%), 경영학부(64.0%) 순이다.
비디오 생성 인공지능(AI) '소라'로 영상 제작에 혁신을 일으킨 오픈AI에 맞서 구글이 이미지를 기반으로 2D 비디오 게임을 생성하는 '지니(Genie)'를 새로운 무기로 꺼내 들었다.
8일 업계에 따르면 구글 딥마인드는 최근 게임 제작을 지원하는 생성형 AI 기술 '지니'를 공개했다.
지니는 합성 이미지, 사진, 스케치를 입력하면 플레이어가 직접 플레이할 수 있는 2D 플랫포머를 생성한다. 기존 생성형 AI 모델과 유사하게 이미지를 입력하지 않고 검색어를 통해서 게임을 생성할 수도 있다. 예를 들어 '미래 도시를 배경으로 게임을 만들어줘'라고 프롬프트를 입력하면 미래 도시를 느낄 수 있는 아이콘 등이 등장하는 식이다.
지니는 비디오에서 곧바로 인터랙션을 학습하기 때문에 간단한 모델로 플레이 가능한 게임을 생성할 수 있다. 딥마인드는 이를 위해 110억 개의 매개변수를 학습시켰다. 지니는 20만 명 이상의 플레이어들이 업로드한 게임 플레이 영상을 통해 게임 메커니즘에 대해 훈련 받았다.
지니는 좌우로 움직이거나 위아래로 점프하는 캐릭터의 움직임을 인식해 매끄러운 조작감을 지원한다. 현재는 시범 운영 단계로, 공식 홈페이지에 연구 방식과 플레이 시연 영상만 공개된 상태다. 일반인을 대상으로 출시할지 여부는 알려지지 않았다.
원문 : https://zdnet.co.kr/view/?no=20240308103313
한국정보보호산업협회(KISIA)는 6일 오후 스카이31 컨벤션 콘퍼런스홀에서 최정예 보안SW 개발인력 양성과정 S개발자 2기 발대식 및 개발보안 세미나를 개최했다고 8일 밝혔다.
KISIA는 과학기술정보통신부의 ‘사이버보안 10만 인재양성’ 계획의 핵심 수행기관 중 하나로 지난해부터 ‘S개발자’ 과정을 운영하고 있다. ‘S개발자’는 최정예 수준의 보안SW 개발인력을 양성하기 위해 9개월에 걸쳐 보안전문화 집체교육·기업참여형 정보보호 개발 프로젝트를 수행하는 전문교육과정이다.
지난해 ‘S개발자 1기’에서는 51명의 최정예 보안SW 개발인력이 배출됐으며, 특허 출원 3건을 지원했고 신규 정보보호 스타트업 1개(이닛클라우드) 기업이 창업해 지난 1월부터 판교 정보보호클러스터에 입주했다.
올해 ‘S개발자 2기’는 교육생 모집 전부터 많은 주목을 받았다. 특히 2월 1일 개최된 ‘2024 온라인 교육사업 설명회’에서는 500여명이 신청해 S개발자 과정에 관심을 보였으며, 15개 이상의 우수 정보보호 전문기업이 프로젝트에 참여한다.
‘S개발자 2기’는 △서류평가 △코딩테스트 △면접평가 등 3단계 심사를 통해 우수 개발역량 및 올바른 인성을 보유한 자를 선발했다. 선발된 교육생에게는 △교육비 전액무료 △교육지원금 △노트북 대여 △도서구입비 △포트폴리오 제작 △취업지원 등 다양한 혜택이 제공된다.
홍준호 KISIA 한국정보보호교육원 원장은 “이번 S개발자 2기(1차)에서는 높은 경쟁률에도 불구하고 개발역량과 보안지식을 보유한 지원자를 교육생으로 선발했다”며 “우수한 보안 역량을 갖춘 정보보호 개발자를 육성할 수 있도록, 정보보호 테스트베드 고도화를 통해 정보보호제품 개발 역량 향상에 지원을 아끼지 않겠다”고 말했다.
이날 개최된 ‘S개발자 2기 발대식’과 개발보안 세미나에서는 2024 최신 사이버보안 위협 트랜드와 시큐어 코딩에 대한 보안의 효과성을 주제로 이종호 토스 리더, 서혁준 LG CNS 총괄의 특강이 진행됐다.
조영철 KISIA 회장은 “최근 사이버 공격은 생성형 AI활용 및 공급망 공격 등 다각화되어 우리의 일상까지 위협하고 있다”며 “S개발자 과정을 통해 최신 보안 기술과 보안 SW 개발방법론을 익히고, 우수 보안기업과 R&D 프로젝트를 통해 고도화된 보안 SW 개발역량을 쌓길 바란다”고 말했다.
출처 : 이뉴스투데이(http://www.enewstoday.co.kr)
삼우이머션(대표 김대희)은 'SWXR 캠퍼스 채용연계형 언리얼 개발자 양성과정'을 완료하고 8일 수료식을 가졌다.
'SWXR 캠퍼스 채용연계형 언리얼개발자 양성과정'은 현장실무형 언리얼 엔진 개발자를 양성해 채용하는 삼우이머션 자체 교육 프로그램이다. 지자체 및 공공기관이 아닌 민간 기업이 직접 실무형 인재를 양성하고 채용과도 연계한다는 것이 특징이다.
삼우이머션은 주력 비즈니스로 확장현실(XR) 콘텐츠, 메타버스 플랫폼, 디지털트윈 시스템을 개발 공급하고 있다. 언리얼 엔진 활용과 언리얼 개발자는 삼우이머션 핵심역량이다.
삼우이머션은 1일 8시간씩 약 1개월동안 이론-평가-실습-평가로 이어지는 현장 업무수행 중심의 밀도있는 교육을 진행했다. 교육생 6명 전원이 수료했고, 이 가운데 4명의 채용을 확정했다.
김대희 대표는 “중간 평가를 거쳐 미달하면 탈락하는 까다로운 교육과정에도 6명 전원이 수료하는 성과를 거뒀다. 양질의 교육 커리큘럼과 교육생의 열정적 호응의 결과”라고 말했다.
삼우이머션은 이날 수료식에서 수료생 최종 프로젝트 발표, 취업 확정 우수 교육생 소개, 에픽게임즈 기술세미나 등을 함께 진행했다.
'SWXR 캠퍼스'는 삼우이머션이 자체 구축한 XR 기반 직무훈련&인재양성센터다. XR 콘텐츠와 장비를 이용해 LNG선박 선원, 의료인력, 항공 정비 등 다양한 직무 훈련과 교육을 진행할 수 있는 미래 인재 양성 첨단 직업훈련·교육 인프라다.
원문 : https://www.etnews.com/20240308000008
인공지능(AI) 교육 솔루션 기업 엘리스그룹이 AI 인프라 사업 강화를 위해 남건우 애플 시니어 엔지니어링 매니저를 AI 클라우드 총괄로 영입했다고 8일 밝혔다.
남 총괄은 2013년부터 최근까지 약 11년간 애플 본사에 재직하며 애플의 교육 및 기업용 앱과 서비스를 설계했다. 또 애플 카드와 지갑 코어 서비스를 개발하고 개인정보보호규정(GDPR) 대응, 보안성이 강화된 클라우드 솔루션 개발 등 인프라 부문에서 다양한 업무를 수행했다. 애플 합류 이전에는 다수의 미국 핀테크 스타트업에서 창업 멤버로 활동한 바 있다.
남 총괄은 엘리스그룹의 AI 클라우드 기술을 고도화하고 국내외 비즈니스 확장을 책임진다. 이를 위해 AI 교육 솔루션 개발을 효율적으로 할 수 있는 이동형 모듈러 데이터센터(PMDC) 구축에 집중한다.
엘리스그룹 관계자는 "남 총괄은 AI 시대에 특화된 클라우드 서비스를 개발해 클라우드 비즈니스 성장을 이끌 것"이라며 "글로벌 엔지니어링팀을 구성해 해외 AI 클라우드 시장 개척도 주도하게 된다"고 했다.
엘리스그룹은 서비스형 소프트웨어(SaaS) 기반 AI 교육 솔루션 기업이다. 자체 데이터센터와 인프라 기술 역량을 바탕으로 플랫폼부터 인프라까지 통합적으로 제공한다. 올해부터 부산에 AI 전용 데이터센터 구축에도 본격 나섰다.
앞으로 인프라 사업 경쟁력을 강화하고 성장을 가속화하기 위해 남 총괄을 중심으로 AI 솔루션 및 클라우드 사업을 이끌 국내외 인재 채용도 적극 진행한다.
김재원 엘리스그룹 대표는 "클라우드 기술 개발부터 비즈니스까지 아우르는 폭넓은 경험과 사업에 대한 깊은 이해로 AI 클라우드 부문의 성장을 이끌 것으로 기대한다. 최고의 서비스와 프로덕트를 구축할 수 있는 인재 영입을 이어 나갈 것"이라고 했다.
남 총괄은 "AI 데이터센터 사업까지 추진하는 엘리스그룹의 도전정신과 기술력에 초점을 맞춘 회사의 방향성에 공감해 합류하게 됐다"며 "안정성과 혁신성을 갖춘 AI 클라우드 인프라를 구축해 글로벌 시장에서 경쟁할 것"이라고 말했다.
원문 : https://news.mt.co.kr/mtview.php?no=2024030814330959438
엔비디아는 지난 4일 '엔비디아(NVIDIA) GTC 2024'를 앞두고 APAC(아시아·태평양) 지역 온라인 사전 인터뷰를 진행했다고 8일 밝혔다.
인터뷰에는 그레그 에스테스 엔비디아 기업 마케팅, 개발자 프로그램 부문 부사장이 참석해 GTC 2024의 준비 과정과 특별히 주목할 만한 세션 등을 언급했다.
세계 최대 AI 개발자 콘퍼런스 GTC는 오는 18일부터 21일까지 미국 캘리포니아주 새너제이에서 개최된다. 팬데믹 이후 5년만에 대면 행사로 돌아온 GTC는 온라인으로도 참석 가능한 하이브리드 형태로 진행된다.
900개의 세션, 250개 이상의 전시, 수십 개의 기술 워크샵 등으로 구성됐으며 30만 명 이상의 전세계 개발자 커뮤니티 회원들이 참석할 것으로 기대된다.
엔비디아는 이번 GTC가 지난 해에 비해 2배 이상의 규모로 진행되는 만큼 행사를 위해 준비를 했으며 성공적인 행사가 될 것이라고 전했다. 특히 젠슨 황 엔비디아 창립자 겸 CEO의 기조연설은 1만명 이상 수용 가능한 SAP 센터에서 진행된다.
젠슨 황 CEO 기조연설은 이달 19일 오전 5시(한국 시간)에 생중계되며, 이후 온디맨드(On-demand)로 제공된다.
원문 : https://zdnet.co.kr/view/?no=20240308131344
생성형 인공지능(AI) 기술 경쟁이 본격화되면서 글로벌 빅테크 기업들이 시장 주도권 확보를 위해 분주히 움직이는 모양새다. 오픈AI와 구글이 앞다퉈 신기술을 선보이면서 AI 대중화도 빠르게 진행되는 분위기다.
16일 업계에 따르면 오픈AI는 지난 15일(현지시간) 문장을 최대 1분 길이 동영상으로 만들어주는 멀티모달 AI '소라(Sora)'를 공개했다. 기존 비디오 생성 AI가 4초 단위의 영상만 제작했던 것에 비해 생성 능력이 많이 향상됐다.
오픈AI에서 텍스트로 영상을 제작할 수 있는 생성형AI 소라를 공개했다.(이미지=오픈AI)소라는 텍스트만으로 동영상을 생성할 수 있고 기존의 이미지를 동영상으로 생성할 수도 있다. 기존 동영상을 확장하거나 누락된 프레임을 채울 수도 있다. 다만 소라는 제한된 수의 창작자에게만 일단 허용된다. 실제 출시에 앞서 안전성 여부를 평가하기 위해서다.
앞서 페이스북 모회사 메타와 구글, 스타트업 런어웨이 AI 등도 '텍스트 투 비디오(Text to Video)' 모델을 개발한 바 있다. 오픈AI는 소라가 기존 모델보다 명령어의 맥락을 더 잘 파악할 수 있다는 것을 강점으로 내세우고 있다.
오픈AI는 "소라는 여러 캐릭터, 특정 유형의 동작, 피사체와 배경의 정확한 세부 묘사를 통해 복잡한 장면을 생성할 수 있다"며 "소라가 일반인공지능(AGI) 달성을 위한 중요한 이정표가 될 것"이라고 밝혔다.
구글은 15일(현지시간) 자체 개발한 멀티모달 인공지능(AI) 모델 제미나이 1.0 프로의 업데이트 버전을 공개했다. (사진=구글)이에 질세라 구글도 차세대 AI 모델 '제미나이 1.0 프로'의 업데이트 버전인 '제미나이 1.5 프로'를 공개하며 대응에 나섰다. 지난 8일 최상위 모델 '울트라 1.0'을 공개한 지 일주일 만이다.
제미나이는 학습 규모에 따라 나노, 프로, 울트라 3종류로 나뉜다. AI 모델이 한 번에 처리할 수 있는 정보의 양을 '콘텍스트 윈도(context window)'라고 하는데, 이는 단어·이미지·영상·오디오·코드 등의 의미를 가진 '토큰(token)'이라는 단위로 구성된다.
이날 공개한 제미나이 1.5 프로는 텍스트·이미지·음성·영상을 생성하는 중급 멀티모달 모델로, 한 번에 최대 100만 개의 토큰을 처리할 수 있다. 이는 현존 최대 수치로, 기존 제미나이 1.0 프로(3만2천 개), 경쟁사 오픈AI의 GPT-4 터보(12만8천 개)에 비해 월등하다.
제미나이 1.5 프로는 개발자를 위한 AI 개발 도구인 '구글 AI스튜디오'와 기업들이 AI 모델을 활용할 수 있는 플랫폼 '버텍스 AI'를 통해 프리뷰 버전으로 제공된다. 정식 버전에서는 12만8천 개 토큰이 기본 제공되고, 구매 옵션으로 토큰을 늘릴 수 있다.
구글은 "1시간의 비디오, 11시간의 오디오, 3만줄 이상의 코드, 70만 단어 이상의 코드베이스를 한 번에 처리할 수 있는 용량"이라며 "기존 모델을 개선하면서 구글의 최신 AI 모델인 '제미나이 1.0 울트라'와 비슷한 수준으로 성능을 높였다"고 설명했다.
마크 저커버그 (사진=씨넷)메타는 지난 해 11월 이미지 생성 모델인 '에뮤(Emu)'의 기능을 개선해 텍스트로 영상을 편집하고 생성할 수 있는 기능을 추가했다. 이를 페이스북, 인스타그램에 연내 적용할 예정이다.
메타는 "에뮤는 지난해 출시한 영상 도구 '메이크-어-비디오' 시스템보다 한 단계 더 발전한 기능"이라고 말했다.
또 메타는 같은 해 5월 MTIA(Meta Training and Inference Accelerator)라는 자체 설계 칩을 처음 공개하며 AI 개발에 주력하고 있음을 알리기도 했다. 올해는 엔비디아의 고성능 그래픽처리장치(GPU) 등을 수십만 개를 구입해 지금보다 더 강력한 AI 모델을 개발한다는 방침이다.
메타 외에도 구글은 최신 칩(TPUv5p)을 자사 대규모 언어 모델(LLM)인 제미나이에 적용했다. 마이크로소프트(MS)도 '마이아 100'이라는 칩을 공개한 바 있다. 챗GPT 개발사 오픈AI는 자체 칩을 개발·생산하기 위한 네트워크를 구축하기 위해 삼성전자, SK하이닉스 등 글로벌 반도체 기업들과 논의 중이다.
업계 관계자는 "현재 AI 칩 시장은 엔비디아가 80% 가까이 장악하고 있다"며 "AI 모델을 훈련하는 데 필요한 AI 칩 공급 부족 등으로 주요 기업들이 자체 칩을 개발하고 있다"고 설명했다.
업계에선 글로벌 빅테크들의 경쟁이 AI를 넘어 검색 등 더 다양한 분야로 확대될 것으로 예상했다. 오픈AI는 최근 구글이 장악하고 있는 검색 시장을 노리고 마이크로소프트(MS) 검색엔진인 '빙'을 기반으로 검색 서비스를 개발 중인 것으로 알려졌다.
업계 관계자는 "생성AI 문서와 이미지에 이어 영상을 생성하는 분야에서도 AI 기술 주도권 경쟁이 치열한 분위기"라며 "빅테크간 경쟁 격화에 AI 기술력이 더욱 빠르게 고도화되고 있다"고 밝혔다.
출처: https://zdnet.co.kr/view/?no=20240216154205 / 장유미 기자
오픈AI가 영상을 생성하는 인공지능(AI) 모델 '소라'를 공개한 가운데, AI 영상 생성 서비스 상용화에 대한 여러 전망이 나왔다. 국내 업계 관계자들은 영상을 생성할 때 드는 컴퓨팅 인프라 수급 문제부터 해결해야 한다고 주장했다. 모델 수익화 방안도 마련해야 하고, 데이터 학습 방식도 주요 고려사항으로 보고 있다.
오픈AI는 지난 15일 문자를 입력하면 고화질 영상을 생성하는 모델 소라를 홈페이지를 통해 공개했다. 현재 내부 개발팀을 비롯한 소수 영상 편집가, 아티스트, 기업인들에게 공급된 상태다. 사용자 피드백을 통해 기술을 검증한 후 서비스를 출시할 방침이다. 출시 일정은 미정이다.
"컴퓨팅 인프라 수요 감당해야…모델 수익화 방안도"
국내 전문가들은 영상모델을 통한 비즈니스가 활성화하려면 아직 멀었다고 입을 모았다. 우선 서비스 구동에 필요한 컴퓨팅 인프라 수급부터 해결해야 한다고 강조했다. AI 영상 생성 서비스의 상용화가 본격화하면 이를 구동하는 그래픽처리장치(GPU) 등 컴퓨팅 인프라 수요가 더 높아질 것으로 보인다는 이유에서다. 업계 관계자는 "언어모델보다 이미지·영상모델 구동에 더 많은 컴퓨팅 파워가 든다"고 했다.
오픈AI는 지난 15일 문자를 입력하면 고화질 영상을 생성하는 모델 소라를 홈페이지를 통해 공개했다. (사진=오픈AI)단순 GPU 확보를 넘어 영상 생성 서비스를 비용 효율적으로 운영하기 위한 기술 개발도 본격화할 전망이다. 네이버 관계자는 "AI 모델 압축과 경량화를 돕는 AI 칩 필요성이 더욱 커질 것"이라며 "네이버가 삼성전자와 손잡고 AI 반도체 솔루션을 공동 개발하고 있는 이유"라고 본지에 전했다.
영상모델을 통한 수익화 마련도 구체적이지 않다. 한 업계 관계자는 "오픈AI가 챗GPT를 운영하는 데 드는 컴퓨팅 인프라 비용만 하루 70만 달러(약 9억3천만원)"라며 "이보다 더 무거운 영상모델을 서비스하려면 몇 배 더 높은 운영 비용을 감당해야 할 것"이라고 설명했다. 단순히 API나 구독형으로 기업들에 제공하다간 적자가 불가피할 것이란 분석이다.
영상모델 소라가 만든 비디오. (사진=오픈AI)현재 AI 기업들은 범용 LLM 개발·운영에 드는 비용을 줄이기 위해 소형언어모델(SLM)을 개발하는 추세다. 범용 LLM에 자사 데이터를 넣어 파인튜닝 하는 방식도 진행하고 있다. 전문가들은 영상 생성 모델에도 동일한 방식을 적용했다간 낭패라는 입장이다. 한국어 LLM을 보유한 한 기업 관계자는 "LLM과 달리 영상모델은 기술적으로 경량화하기 힘들다"며 "모델 경량화는 퀄리티 낮은 영상을 생성할 수 있다"고 지적했다.
영상모델, 언어모델보다 3배 많은 데이터 필요
영상모델의 훈련 데이터양도 중요하다는 지적도 있다. AI 모델이 영화, 광고 등 산업에서 활용 가능할 정도로 수준 높은 이미지를 생성하기 위해선 이미지 데이터를 대량으로 학습해야 해서다.
다쏘시스템의 수칫 제인 솔리드웍스·3D익스피리언스 웍스 전략 및 비즈니스 개발 부사장.3D 설계용 AI 모델을 개발 중인 다쏘시스템의 수칫 제인 솔리드웍스·3D익스피리언스 웍스 전략 및 비즈니스 개발 부사장은 "일반적으로 언어모델을 학습시키는 것보다 영상모델 학습시키는 데 3배 더 많은 데이터양과 시간이 걸린다"고 기자에 전한 바 있다.
이미지 데이터에 스며든 사실 왜곡, 혐오 콘텐츠, 편향 등도 제거 해야 한다. 생성 결과물이 비윤리적이거나 편향된 경우 논란을 피할 수 없기 때문이다. 이에 오픈AI는 이미지 데이터 문제 해소를 위한 안전 조치를 취할 예정이라고 홈페이지를 통해 밝힌 바 있다. 영상에 등장할 수 있는 왜곡, 혐오 등의 기술적인 제거를 목표로 뒀다.
오픈AI는 "현재 사내 레드팀이 소라에 적대적 모델 테스트를 진행 중"이라며 "소라로 만든 영상을 분류할 수 있는 소프트웨어 도구도 개발하고 있다"고 설명했다.
출처: https://zdnet.co.kr/view/?no=20240220162304 / 김미정 기자
구글은 자사 인공지능(AI) 대규모 언어 모델(LLM) 제미나이 프로가 한국어를 포함해 모든 바드 지원 언어와 국가로 확대됐다고 2일 밝혔다.
제미나이 프로는 이해, 요약, 추론, 코딩, 계획 수립 등의 작업을 수행하며, 바드의 능력을 더 높여줄 예정이다.
한국어로도 바드의 대답을 다시 확인할 수 있게 됐다. 답변 하단의 구글 ‘G’ 아이콘을 클릭하면 바드가 구글 검색을 사용해 바드의 대답과 유사하거나 다를 가능성이 있는 콘텐츠를 찾아준다.
바드 대답 확인 기능관련 내용 확인이 가능한 경우 녹색으로 강조 표시되며, 클릭하면 구글 검색 결과를 통해 더 자세히 알아볼 수 있다. 관련 내용 확인이 어려운 경우 주황색으로 강조 표시된다.
이제 데스크톱 및 모바일 웹 바드에서 간단한 설명만으로도 이미지 생성 기능을 이용할 수 있다.
구글 측은 "텍스트 설명만으로도 원하는 이미지를 손쉽게 구현해 아이디어를 더욱 생생하게 표현할 수 있다"며 "바드 이미지 생성 기능은 우선 영어 프롬프트로만 지원된다"고 말했다.
출처: https://zdnet.co.kr/view/?no=20240202082117 / 안희정 기자
사용자들이 원하는 지역을 더욱 정확하게 찾을 수 있도록 구글 지도에 생성형 인공지능(AI)이 도입된다.
2일(현지시간) 더버지 등 외신에 따르면 구글이 초거대 언어모델(LLM)을 구글지도에 도입한다고 공식 블로그를 통해 밝혔다.
구글 지도에 도입되는 생성형AI는 2억 5천만 개 이상의 장소에 대한 세부 정보와 3억 명이 넘는 기여자로 구성된 커뮤니티의 리뷰를 기반으로 학습됐다.
(이미지=구글)이를 통해 사용자의 요구 사항이 다양하거나, 광범위하고 잘 알려지지 않은 지역을 원하더라도 빠르게 원하는 지역을 제안하는 것을 목표로 한다.
'샌프란시스코의 빈티지 분위기가 나는 장소처럼 요구하는 내용의 조건이 복잡하게 추가될 경우 AI 모델은 사진, 평점, 리뷰와 함께 주변 업체 및 장소에 대한 데이터를 분석해 정확한 데이터를 제공한다.
의류와 음반 매장, 중고상점 등 장소의 특성에 따라 카테고리화되며 사진을 비롯해 해당 장소별 요약된 서명을 함께 확인할 수 있다.
검색한 데이터를 바탕으로 후속 질문도 이어갈 수 있다. 빈티지한 곳을 방문한 후 음식점을 찾는 다면 주변 오래된 식당 등 현재 분위기에 어울리는 장소를 추천받을 수 있다.
주변 상황이나 개인적인 목적 등으로 갑자기 계획을 변경하는 경우에도 활용할 수 있다. 야외활동 중 갑자기 비가 내릴 경우 이에 대한 내용을 검색하면 AI는 영화관람 등 실내 활동을 제안하며, 가족이 함께 활동한다면 어린이 박물관, 실내 놀이터 등으로 계획을 변경한다.
구글은 "이는 우리가 생성형 AI를 활용하여 지도를 획기적으로 발전시키는 여정에 있어 첫걸음에 불과하다"면서 "앞으로도 지속해 AI 기술에 대한 투자를 통해 사용자 경험을 개선하고 새로운 사업 기회를 창출해 나갈 것으로 기대된다"고 전했다.
생성형 AI를 적용한 구글 맵스는 이번 주 미국 지역을 대상으로 진행되며, 추후 순차적으로 지역을 확대한다는 방침이다. 다만 언제 다른 국가에 적용될지는 아직 공개되지 않았다.
구글은 생성형AI를 미국 지역에 먼저 도입한 이후 점차 서비스 지역을 넓혀 나갈 계획이다.
구글의 미리암 다니엘 구글지도 부사장은 “이 실험적 기능은 사람들이 지도를 통해 더 쉽게 장소를 찾고 세계를 탐색할 수 있는 완전히 새로운 방법을 제시할 것”이라고 강조했다.
출처: https://zdnet.co.kr/view/?no=20240204005746 / 남혁우 기자
초개인화 인공지능(AI) 에이전트 스타트업 라이너가 AI 워크스페이스에 이용자 텍스트 요청을 시각화하는 새로운 ‘이미지 생성 에이전트’를 출시했다고 15일 밝혔다.
라이너의 이미지 생성 에이전트는 오픈AI 달리3모델 기반으로 개발됐다. 새롭게 선보이는 이미지 생성 에이전트는 텍스트를 이미지로 간편하게 구현해 주는 이미지 제너레이터와 섬세하고 생동감 있는 고해상도 이미지를 생성해 주는 이미지 제너레이터 프로 두 가지 버전으로 출시됐다.
라이너 이미지 생성 에이전트는 한국어부터 영어, 중국어, 일본어까지 네 가지 언어로 서비스를 제공하고 있다. 라이너 프로페셔널 모델 구독자라면 웹 브라우저를 통해 라이너 AI 워크스페이스에 접속해 이미지 생성 에이전트를 이용할 수 있다.
(사진=라이너)라이너 측은 “모바일 앱에서도 이미지 생성 에이전트를 이용할 수 있도록 개발 중”이라고 설명했다.
원하윤 라이너 프로덕트 오너는 “포스터나 콘텐츠에 삽입할 이미지 등 기존에 사람이 직접했던 복잡한 이미지 작업을 라이너 이미지 생성 에이전트를 통해 30초 만에 해결할 수 있게 됐다”며 “앞으로도 이용자들의 업무 생산성을 높일 수 있는 방안을 다각도로 고민할 것”이라고 말했다.
출처: https://zdnet.co.kr/view/?no=20240215173836 / 김성현 기자
곤충의 시신경계를 모방한 지능형 동작 인식 소자가 개발됐다. 전력 소모량을 절반 가까이 줄여 휴대폰 사물 인식 장치로 활용 가능하다.
KAIST(총장 이광형)는 신소재공학과 김경민 교수 연구팀이 멤리스터 소자를 이용해 곤충의 시각 지능을 모사하는 방법으로 지능형 동작 인식 소자를 개발하는 데 성공했다고 19일 밝혔다.
멤리스터(Memristor)는 메모리(Memory)와 저항(Resistor)을 합친 말이다. 입력 신호에 따라 소자의 저항 상태가 변하는 전자소자이다.
KAIST가 개발한 동작인식 소자 기반 뉴로모픽 컴퓨팅 시스템 구성도(아래)와 곤충의 시신경계 동작인식 과정의 흐름을 나타낸 그림. (사진=KAIST)김경민 교수는 “기술 개발 수준은 언제든 양산에 들어갈 만큼 올라와 있다”며 ”다만, 상용화가 되려면 수요가 커야 하는데, 요즘 들어 느는 추세”라고 말했다.
최근 삼성 등은 휴대폰에 에지(edge)형 인공지능을 도입했다. 또 사물 인식이나 동작 인식 기능도 휴대폰에 탑재하고 있으나, 전력 소모량이 커 이를 줄이는 노력이 진행 중이다.
연구진은 곤충의 뇌에 신호를 전달하고 처리하는 시신경계 뉴런을 멤리스터 소자를 활용해 모방했다.
연구진은 이를 바탕으로 동작 인식 소자를 개발했다. 또 이를 검증하기 위해 차량 경로를 예측하는 뉴로모픽 컴퓨팅 시스템을 설계, 적용했다. 그 결과 전력 소모량은 기존 대비 92.9% 감소했다. 사물의 움직임 예측 정확도는 15.0% 향상됐다.
김경민 교수는 ” 향후 자율주행 자동차, 차량 운송 시스템, 로봇, 머신 비전 등과 같은 다양한 분야에 적용될 수 있을 것으로 기대한다”고 말했다.
이 연구는 KAIST 신소재공학과 송한찬 박사과정, 이민구 박사과정 학생이 공동 제1 저자로 참여했다. 연구 결과는 국제 학술지 ‘어드밴스드 머티리얼즈(Advanced Materials, IF: 29.4)’ 1월 29일 자 온라인판에 게재됐다.
한편, 이 연구는 한국연구재단 중견연구사업, 차세대지능형반도체기술개발사업, PIM인공지능반도체핵심기술개발사업, 나노종합기술원 및 KAIST 도약연구사업의 지원을 받아 수행됐다.
출처: https://zdnet.co.kr/view/?no=20240219093646 / 박희범 기자
구글이 제미나이를 활용해 앱 개발업무를 간소화하기 위한 AI코딩도구를 사내 도입했다. 구스를 시작으로 업무 효율화를 위해 모든 업무에 AI도구를 도입할 전망이다.
17일(현지시간) 기가진 등 외신에 따르면 AI모델 코딩도구 구스(Goose)를 사내 업무 프로세스에 적용했다.
구스는 25년간 구글이 축적한 엔지니어링 데이터와 앱 개발 노하우 등을 제미나이에 학습시켜 개발됐다.
구글이 경영효율화를 위해 전사적으로 AI도입을 가속화할 전망이다(이미지=구글)이 모델은 구글 내 직원들이 신규 서비스를 개발하는 과정에서 내부 기술을 빠르게 이해하고, 관련 코드를 효율적으로 제작하는 것을 지원하는 것을 목표로 한다.
공개된 방식은 마이크로소프트의 코파일럿과 비슷한 것으로 알려졌다. 자연어로 프롬프터 명령어를 입력하면 필요한 기술을 설명하거나 관련 코드를 작성해주는 식이다.
최근 알파벳과 구글의 루스 포랏 최고재무책임자(CFO)는 지난해 4분기 실적발표에서 AI를 알파벳 전반에 걸쳐 운영을 효율화해 비용 증가를 통제하겠다”고 밝힌 바 있다.
외신들은 이런 운영 효율화를 위한 AI도구의 첫 시작으로 구스를 지목했다. 또한 개발을 비롯해 모든 업무와 직원에게 AI서비스와 도구를 제공해 기업 전체의 비용 증가를 억제하고 운영을 간소화할 것으로 전망했다.
출처: https://zdnet.co.kr/view/?no=20240218021145 / 남혁우 기자
KT가 26~29일(현지시간) 스페인 바르셀로나에서 열리는 MWC24에 전시관을 연다고 18일 밝혔다.
KT 전시관은 ‘미래를 만드는 디지털 혁신 파트너 KT’를 주제로 넥스트(NEXT) 5G, 인공지능(AI) 라이프 총 2개 테마존으로 구성해 차세대 네트워크 기술, AI 혁신 기술을 바탕으로 한 KT의 디지털 기술을 소개한다.
먼저 KT는 넥스트 5G 존에서 항공망에 특화된 네트워크 기술을 적용한 도심항공교통(UAM) 체험 공간과 AI로 안전하게 UAM 교통을 관리하는 지능형 교통관리 시스템을 소개하고, 이용자에게 편리성과 보안성을 더해주는 혁신 네트워크 서비스와 기술을 전시한다.
(사진=KT)KT는 이용자가 쉽게 글로벌 사업자망에 접속해 연결성 등 네트워크 자원을 이용하는 개방형 네트워크 API 기술과 클라우드 고성능컴퓨팅(HPC) 환경에서 해석 시뮬레이션 솔루션을 제공한 엔지니어링 플랫폼을 선보인다.
아울러 유무선 네트워크 해킹 방지 기술인 양자암호 통신과 통신 인프라 전력을 절감한 네트워크 전력 절감 기술 등도 공개할 예정이다.
AI 라이프 존에서는 AI 솔루션을 확장해 초거대 AI가 적용된 다양한 사례를 공개한다. 생성 AI 얼라이언스 코너는 거대언어모델(LLM)이 적용된 AI 반도체, 소버린 AI 사례 등 초거대 AI 협력 모델을 만나볼 수 있다.
(사진=KT)AI 컨텍스츄얼 광고 코너는 나스미디어와 공동 연구개발(R&D)로 KT 거대언어모델(LLM)을 통해 광고 문맥을 분석해 최적의 광고를 타겟팅 할 수 있는 AI 문맥 맞춤 광고 서비스를 선보인다.
(사진=KT)온디바이스 AIoT 코너는 공유 킥보드, 전기차 충전기, 택시용 스마트 사이니지에 적용된 온디바이스 AIoT 블랙박스(EVDR) 기술 체험이 가능하다. 지니버스 인 스쿨 코너에서는 행정안전부와 협력해 메타버스 공간에서 지니버스 도로명 주소를 체험할 수 있도록 했다.
(사진=KT)이정우 KT 홍보실장은 “디지털 혁신 기술 파트너로서 글로벌 무대에서 차세대 ICT 기술을 선보이는 장을 마련했다”며 “전 세계 관람객들이 우리 전시관에서 차세대 디지털 혁신을 경험하도록 AI, UAM, 미래 네트워크 기술 등을 선보일 것”이라고 말했다.
출처 : https://zdnet.co.kr/view/?no=20240218081651 / 김성현 기자
정부가 인공지능(AI) 강국을 위한 양질의 데이터 확보에 나섰다.
과학기술정보통신부(과기정통부)는 박윤규 2차관 주재로 '제2차 인공지능 데이터 융합 네트워크'를 16일 개최했다. '인공지능 데이터 융합 네트워크'는 산학연 전문가와 함께 각 분야 인공지능 활용 확산 방안을 모색하고, 현장에서 필요한 양질의 데이터를 적시에 공급할 수 있게 과제를 발굴하기 위해 지난해 9월 출범했다.
작년 델파이 조사와 제1차 회의를 통해 ▲국민일상 ▲산업현장 ▲공공부문에서 활용할 수 있는 10대 전략 분야를 도출했다. 이후 대국민 수요조사('23.9월~11월), 총괄과제기획위원회 분과회의(60회) 등을 통해 분야별 세부 과제를 기획했다.
10대 전략 분야는 국민생활 밀접 서비스(①법률 ②의료 ③행정사무 ④교육), 산업혁신(⑤미디어‧콘텐츠 ⑥제조‧로보틱스 ⑦교통‧물류), 공공서비스혁신(⑧국방 ⑨재난‧안전‧환경 ⑩농림축수산) 등이다.
이번 제2차 회의에서 과기정통부는 ▲인공지능 일상화 ▲멀티모달 생성형 인공지능 고도화 ▲인공지능 신뢰성・안전성 확보 ▲온디바이스 인공지능 개발 지원 등 올해 사업 추진 방향을 설명하고, 국내 대형언어모델(LLM) 생태계 발전을 위한 리더보드 운영 및 국내외 데이터 확산을 위한 ‘AI 허브’ 고도화 방안을 소개했다.
박윤규 과기정통부 2차관(오른쪽 두번째)이 인사말을 하고 있다. 박 차관 오른쪽은 엄열 과기정통부 국장, 왼쪽은 황종성 NIA 원장. 이어 총괄과제기획위원회 위원장(카이스트 최재식 교수)이 그동안 기획한 10대 전략 분야 데이터 구축 방향과 128개 후보 과제를 발표했고, 구영현 교수(세종대)가 대형언어모델(LLM) 및 대형멀티모달모델(LMM) 등 최신 인공지능 동향을 소개했다.
생성형 인공지능 트렌드가 언어 중심에서 멀티모달로 발전할 것으로 전망됨에 따라, 올해는 텍스트‧음성‧이미지‧영상 등 다양한 유형의 데이터를 결합한 멀티모달 데이터를 본격적으로 구축해 국내 생성형 인공지능 모델 및 서비스 고도화를 지원할 계획이다.
이날 행사에는 박 차관 외에 엄열 과기정통부 인공지능기반정책관(국장), 이소라 데이터진흥과장,이은규 인공지능확산팀장과 황종성 NIA 원장, 민간 전문가들이 참석했다.
참석자들은 토론에서 분야별 인공지능 산업・연구 현장에서 직접 느끼는 데이터 이슈 및 애로사항을 공유하는 한편 각 분야별 데이터 구축 방향도 자유롭게 의견을 제시했다. 이날 논의한 결과를 토대로 10대 전략 분야 후보 과제를 선정하고, 대국민 의견수렴(2.19 ~ 2.23)과 총괄기획위원회 심의・의결(2월말)을 통해 세부 과제를 최종적으로 확정, 사업 공모를 추진할 계획이다.
회의를 주재한 박윤규 차관은 "생성형 인공지능은 단순한 기술적 발전을 넘어 산업‧공공‧국민 일상 모든 분야에서 구체적인 변화와 막대한 경제적 가치를 창출할 전망이며, 이를 둘러싼 글로벌 빅테크의 경쟁은 더욱 치열해질 것"이라면서 "양질의 데이터를 구축하고 그 활용도를 높여 나가는 것이 우리나라 인공지능 산업 경쟁력을 강화하고, 국민과 함께 인공지능 혜택을 공유하는 인공지능 일상화를 뒷받침할 것"이라고 밝혔다.
출처: https://zdnet.co.kr/view/?no=20240216103707 / 방은주 기자
오픈AI가 간단한 프롬프트 명령어로 60초 분량의 고화질 영상을 제작할 수 있는 생성형 AI 서비스를 공개했다.
15일(현지시간) 테크크런치 등 외신에 따르면 오픈AI는 텍스트 투 비디오(Text To Video) 모델 '소라(Sora)'를 공개하고 테스트에 돌입했다고 밝혔다.
소라는 높은 수준의 영상품질과 사용자의 메시지를 준수하며 최대 1분 길이의 비디오를 제작할 수 있는 생성형 AI다.
오픈AI에서 텍스트로 영상을 제작할 수 있는 생성형AI 소라를 공개했다(이미지=오픈AI)프롬프트를 정확하게 해석하고 이를 영상으로 표현할 수 있도록 달리3에 적용된 시각 훈련 데이터를 적용해 언어에 대한 이해도를 높였다.
소라는 데이터 학습을 통해 여러 캐릭터, 특정 유형의 동작, 피사체와 배경의 정확한 세부 정보로 복잡한 장면을 생성할 수 있다. 또한 실제 세계에 대한 이해를 바탕으로 사용자가 요청한 내용 외에도 사실적인 표현을 위해 세부적인 요소들이 영상에 자연스럽게 추가된다.
다만 오픈AI는 아직 소라가 완전한 제품이 아니라고 밝혔다. 복잡한 장면의 물리 표현을 시뮬레이션하는 데 어려움을 겪을 수 있으며 특정 상황의 원인과 결과에 대해 완전히 표현하지 못할 가능성이 있다.
오픈AI에서 텍스트로 영상을 제작할 수 있는 생성형AI 소라를 공개했다(이미지=오픈AI)예를 들어 쿠키를 베어 물었을 때 쿠키에 물린 자국이 표현되지 못할 수 있다는 것이다. 왼쪽과 오른쪽 표현이 잘못 표현되는 등 공간적 세부사항이 혼동될 가능성도 있으며 잘못된 정보나 편견이 포함된 영상이 제작될 우려도 있다.
오픈AI 측은 “정식으로 소라를 사용하기에 앞서 안전하게 사용할 수 있도록 몇가지 중요한 안전조치를 취하려 한다”며 “편견, 혐오 관련 도메인 전문가인 레드팀과 협력해 모델을 적극적으로 테스트 할 것”이라고 밝혔다.
이어서 “우리는 AI가 창의적인 전문가에게 가장 도움이 되는 모델을 발전시키는 방법을 모색하고 있다”며 “이를 위해 다수의 시각 예술가, 디자이너 및 영화 제작자에게 액세스 권한을 부여하고 의견을 듣고 있다”고 설명했다.
출처: https://zdnet.co.kr/view/?no=20240216105118 /남혁우 기자