삼성전자[005930]는 다음 달 15∼16일 '삼성 소프트웨어 개발자 콘퍼런스(Samsung Software Developer Conference·SSDC) 2022'를 개최한다고 20일 밝혔다.
삼성전자는 2014년부터 SSDC를 개최해 왔으며, 오픈소스 중심이던 행사를 작년부터 소프트웨어 전 분야로 확대했다.
올해는 삼성전자 서초사옥에서 오프라인으로 행사를 열며, 코로나 사태 이후 최대 규모로 진행된다.
이번 SSDC는 삼성전자 한종희 대표이사 부회장의 환영사를 시작으로 인공지능(AI), 플랫폼, 통신, 보안, 로봇, 헬스케어 등 주력 연구분야에 대한 발표가 이어진다.
1일차에는 삼성리서치 연구소장 승현준 사장이 리서치 연구 분야에 대해 발표한다.
또 삼성리서치 기술전략팀장 최승범 부사장, 시큐리티 & 프라이버시 팀장 황용호 상무, MX사업부 스마트싱스 팀장 정재연 상무 등이 삼성전자 제품 탑재 소프트웨어에 대해 설명한다.
2일차에는 김상욱 경희대 교수가 물리학자의 시선으로 본 소프트웨어 개발 환경을 주제로 발표에 나선다.
또 삼성리서치, MX사업부, 영상디스플레이(VD)사업부, 네트워크사업부, 생활가전사업부, 빅데이터센터 등 삼성전자의 6개 조직이 참여한 삼성전자 개발자 채용 상담 부스도 함께 운영된다.
삼성전자에 소프트웨어 개발자로 입사를 원한다면 SSDC 등록사이트를 통해 채용 상담 예약을 하고 방문할 수 있다.
SSDC에 대한 자세한 정보는 홈페이지(https://www.ssdc.kr)에서 확인할 수 있다.
크래프톤(대표 김창한)이 소프트웨어 인재 양성 프로그램 ‘크래프톤 정글’의 1기 입소식을 24일 개최했다고 밝혔다.
서울대학교 시흥캠퍼스에서 진행된 입소식에는 김정한 원장과 코치진 및 크래프톤 이사회 장병규 의장이 참석하여 1기 교육생들을 환영하고, 개발자로의 성장을 독려하는 메시지를 전했다.
김정한 크래프톤 정글 원장은 “소프트웨어 개발자로의 성장이라는 목표를 가지고 크래프톤 정글에 오신 모든 분들을 진심으로 환영한다”라며 “동료들과의 경쟁이 아닌 협력, 끝까지 포기하지 않는 도전정신, 몰입의 즐거움을 통해 크래프톤 정글에서 어제보다 오늘, 오늘보다 내일 더 성장하는 훌륭한 개발자가 되길 바란다”고 말했다.
장병규 크래프톤 이사회 의장은 “크래프톤 정글은 자기 주도적인 태도, 몰입의 중요성, 좋은 동료와의 팀워크를 경험하고 탄탄한 기초를 다지면서 오로지 ‘성장’에 집중할 수 있는 최적의 환경”이라며, “크래프톤 정글의 시작을 여는 여러분들이 크래프톤 정글의 미래, 더 나아가 IT산업을 이끄는 핵심 인재로 성장하길 기대한다”고 말했다.
최종 합격자로 선발된 총 49명의 1기 교육생들은 서울대학교 시흥캠퍼스에서 내년 3월까지 5개월간 합숙 교육에 들어간다. 이들은 전산학 기초 단계에서 시작하여, 고난이도의 운영체제(OS) 프로젝트, 팀별 프로젝트 개발 및 론칭을 경험하게 된다. 교육 기간 동안에는 협력사로 참여하는 주요 IT기업의 취업설명회 및 프로젝트 멘토링이 진행되며, 프로젝트 종료 후 채용 연계 기회도 주어진다.
원문 : 크래프톤, 소프트웨어 인재 양성 프로그램 ‘정글 1기’ 교육 시작 - ZDNet korea
말만 하면 AI(인공지능)가 동영상을 만들어주고, 동영상에 삽입될 음악을 창작해주며, 이와 관련한 소설을 작성한다. 방언만 사용하는 아프리카 소수 부족과 번역 앱을 통해 의사소통을 한다. 비가 오면 어느 강에서 홍수가 날지 미리 알 수 있다.
이는 구글이 AI를 통해 만드는 미래의 모습이다. 2일(현지시각) 세계 최대 검색 기업 구글이 미 뉴욕 구글 오피스에서 ‘AI 연례 컨퍼런스’를 열고 강화된 AI 기능을 대거 공개했다. 실생활에 하나둘씩 적용되는 AI 기술의 활용 범위를 대폭 확장한 것이 특징이다. 전설적인 프로그래머로 알려진 구글의 제프 딘 부사장 겸 시니어펠로우는 “AI의 발전이 지금 당장은 매우 빠르게 느껴질 수 있지만 사실은 오랜 발전 과정에서 나온 것”이라며 “신경망 아키텍처, 머신러닝 알고리즘, 머신러닝 하드웨어의 발전은 AI가 실제 삶 속 문제를 해결하는 데 도움이 되고 있다”고 했다.
구글은 이날 최근 테크 업계의 가장 큰 화두인 ‘제너레이티브(생성) AI’ 기술을 대거 공개했다. 사람이 문자로 명령을 입력하면 AI가 이미지나 동영상, 음악 등을 창작해 내놓는 것이다.
구글은 올 5월 문자-이미지 변환 AI 모델인 이매젠을 공개한 데 이어, 이날 텍스트 명령으로 고해상도 영상을 만들어내는 ‘이매젠 비디오’와 ‘페나키’ 모델을 공개했다. 구글의 모델로 만든 동영상은 메타 등 다른 업체가 만든 문자-동영상 변환 AI 모델보다 고화질이고, 재생 시간이 더 길다. 이날 구글은 여러 개의 영상을 보여줬는데 그 중 하나인 45초짜리 동영상에서는 나뭇가지에 걸린 파란색 풍선이 보이다가 카메라가 왼쪽으로 이동하며 동물원 속 기린의 모습을 보여준다. TV나 영화에서 보는 화질에는 미치지 못하지만 나름 자연스럽다.
구글은 또 6초 분량의 음성만 있으면 이를 기반으로 사람의 목소리를 재현하고, 피아노 음악까지 만들어주는 ‘오디오LM 기술’, 구글의 AI 언어모델인 람다를 활용해 짧은 문장을 던지면 AI가 다음 문장을 만들어내는 ‘워드크래프트’도 선보였다. 구글은 “워드크래프트는 전문 작가들과 협업하고 있다”고 했다.
구글은 또 사람이 언어로 명령하면, AI가 스스로 코딩을 하는 기능도 공개했다. 일반 코드뿐만 아니라 로봇 동작을 제어할 수 있는 코드도 능숙하게 짜낸다.