반응형

Google I/O 키노트 (Google I/O '17)


Google 제품과 플랫폼 혁신에 대해 배워보세요 Google I/O '17의 모든 발표는 여기서 보세요: https://goo.gl/D0D4VE I/O '17에서의 더 많은 Android 발표는 여기서 보세요: https://goo.gl/c0LWYl I/O '17에서의 더 많은 Chrome 발표는 여기서 보세요: https://goo.gl/Q1bFGY I/O '17에서의 더 많은 Firebase 발표는 여기서 보세요: https://goo.gl/pmO4Dr Google 개발자 채널을 구독하세요l: http://goo.gl/mQyv5L #io17 #GoogleIO #GoogleIO2017

Mobile first to AI first




---------------------------------------------------------------------------------------------------------------


구글(Google) I/O는 구글에서 매년 한번씩 주최하는 개발자 컨퍼런스이다.-I/O는 “Input/Output”과 “Innovation in the Open”의 약자라고 한다.[1]

올해 구글 I/O는 5월 17일부터 5월 19일까지 진행되었다. 이전 구글 I/O의 키워드가 “Mobile First”였다면 2017년 구글 I/O의 키워드는 “AI First”였다. AI에 큰 투자를 하고 있는 구글답게 모든 제품군 키노트-기조연설- 시간에 어떻게 해당 제품에 머신러닝과 AI 기술을 접목시켰는지 자세히 설명하였다.

하지만 역시 가장 주목할만한 키노트는 순다 피차이(Sundar Pichai) CEO의 키노트였는데 순다 피차이는 기조연설에서 구글의 AI 연구에 대한 청사진과 응용사례를 요약해서 설명하였다. 아래에 순다 피차이 CEO의 키노트 내용을 중요 키워드 별로 요약정리했다.

 

1. Smart Reply

Smart Reply는 구글 Gmail에 새로 추가된 기능으로 자연어처리(NLP) 기술을 이용해서 이메일에 대한 적절한 답장(Reply)을 제안(Suggestion)해주는 기술이다. 구체적인 기술적 내용은 Kannan, Anjuli, et al.의 논문 “Smart Reply: Automated Response Suggestion for Email”[2]과 구글 리서치 블로그[3]를 참조하라.

 

2. Google Home에 적용된 음석인식(Speech Recognition)

구글 홈(Google Home)[4]은 스마트홈을 위해 구글에서 만든 IoT(Internet of Things) 기기이다. 아마존 에코를 떠올리면 이해하기 쉽다. 구글 홈에도 딥러닝을 이용한 음성 인식 기술이 적용되었다. 특히, 구글 홈을 이용한 Hands-Free 전화와 구글 어시스턴트와의 연동을 중요하게 언급하였다.

 

3. 이미지 인식(Image Recognition) & 구글 렌즈(Google Lens)

 

이미지 인식 분야에서도 AI 기술이 적용되었다. 대표적인 응용 사례로, 저화질 이미지를 업로드하면 자동으로 고화질 이미지로 변경해주는 기능-컴퓨터비전 분야에서 이런 기법을 Super Resolution이라고 한다.-과, 철조망 사이로 찍힌 사진에서 철조망을 자동으로 지워주는 기능을 제시하였다.-컴퓨터비전 분야에서 이런 기법을 Image Inpainting이라고 한다.-

이어서 새로운 제품인 구글 렌즈(Google Lens)를 공개했다. 구글 렌즈는 인간의 눈과 같이 작동하는데, 앱을 켜고 이미지를 가리키면 이미지에서 자동으로 이미지 안에 내용을 해석해서 정보를 제공해준다. 예를 들어 와이파이 아이디와 비밀번호를 가리키면 자동으로 와이파이에 연결하는 것을 도와준다.

 

4. Cloud TPU

구글 딥러닝을 위한 별도의 프로세서인 TPU(Tensor Processing Unit)를 개발해서 사용하고 있는데, 이 TPU를 구글의 클라우드 컴퓨팅 플랫폼인 Google App Engine에서 제공할 예정이라고 한다. [5]

 

5. AutoML (Learn to Learn)

기존의 딥러닝 기법에 가장 큰 문제는 어떤 Task에 적합한 Neural Networks 구조를 끊임 없는 노가다를 통해서 알아 냈어야만 했다.-구글에서는 이런 반복적인 노가다를 머신 러닝으로 박사학위(Phd)를 받은 사람들이 수행해왔다고 한다.-

따라서 이런 지루한 과정을 해결하기 위해 구글은 일종의 메타 러닝 기법을 제안했는데, 어떤 문제에 적합한 Neural Networks 구조를 찾아내기 위한 Neural Networks를 학습시키는 기법을 제안하였고 이를 AutoML(Learn to Learn)이라고 이름지었다. 더욱 자세한 내용은 구글 리서치 블로그[9]를 참조하라.

 

6. 병리학(Pathology)에 응용

병리학 분야에도 딥러닝이 사용되었다. 대표적인 응용 사례는, 장기에서 암세포가 어떤 부분인지 판단하는(Labeling)하는 문제이다. 현재 딥러닝 기술을 실제 병리학자가 판단하는 것보다 더욱 정확한 수준까지 발전되었다.

 

7. AutoDraw

위에 언급된 사례들이 인공지능 기술이 실용적인 문제에 적용된 예제들이었다면, AutoDraw는 재미를 위한 프로젝트 중 하나이다. 그림판 같은 캔버스에 그림을 그리면, AI가 자동으로 유사한 Drawing을 찾아서 적절한 모양을 제안해준다. 아래의 링크[8]로 들어가면 직접 AutoDraw를 실험해 볼 수 있다.

 

...


반응형
반응형


ai.google


우리의 사명은 전 세계의 정보를 체계화하여 보편적으로 액세스 가능하고 유용하게 만드는 것입니다. AI는 우리가 사용자, 고객 및 전세계의 문제를 해결하는 놀라운 새로운 방식으로이를 가능하게합니다.

AI는 내가 좋아하는 사람들의 사진을 검색하거나, 언어 장벽을 허물고, 개인 디지털 보조기로 일을 끝내도록 돕는 등 일상 생활을 쉽게합니다. 그러나 그것은 또한 오래된 문제를보고 우리가 일하고 사는 방식을 변화시키는 새로운 방법을 우리에게 제공하고 있습니다. 우리는 모든 사람들이 접근 할 수있을 때 가장 큰 영향이 올 것이라고 생각합니다.


...

반응형
반응형

페이스북이 만든 첫 HW, 코드명 ‘알로하’


페이스북이 야심차게 준비하고 있는 하드웨어(HW) 프로젝트 윤곽이 드러났다. <비즈니스인사이더>는 8월23일(현지시간) 페이스북이 사내 R&D 연구 팀 ‘빌딩8’을 중심으로 가정용 화상채팅 기기 ‘알로하’ 개발을 진행 중이라고 밝혔다. 페이스북이 만드는 첫 HW 기기다.


알로하는 최근 아마존이 발표한 화상채팅용 스마트 스피커 ‘에코 쇼’와 유사한 형태를 띄고 있다. 알로하는 13, 15인치에 이르는 대형 터치스크린, 광각 카메라, 마이크, 그리고 스피커로 구성된다. 이를 통해 사람 얼굴을 인식할 수 있으며, 화상 대화를 나누거나 커뮤니케이션을 이어갈 수 있다.


알로하는 2018년 5월 출시를 목표로 현재 프로토타입 테스트를 하고 있는 것으로 알려졌다. 페이스북은 알로하를 499달러에 판매할 예정라고 밝혔으나, 최종 가격은 결정되지 않았다.



페이스북은 이번 알로하 프로젝트를 앤드류 보즈워스가 총괄한다고 발표했다. 페이스북 임원인 앤드류 보즈워스는 빌딩8과 오큘러스, VR 사업부를 지휘한다. 보즈워스는 페이스북의 오랜 중역으로 광고 및 비즈니스 플랫폼 담당 부사장을 역임한 바 있다. 보즈워스는 앞으로 여러 하드웨어 팀과 기술 팀, 그리고 페이스북의 가치관을 통합하는데 집중할 예정이다.


페이스북 대변인은 “이번 알로하 프로젝트로 가상 현실, 증강현실 및 소비자 HW에 대해 장기적 투자를 할 수 있어 매우 흥미롭다”라며 “우리는 이 신기술을 바탕으로 전세계를 더욱 가깝게 만들 수 있다고 믿는다”라고 밝혔다.



...

반응형
반응형

네이버랩스, 커넥티드카 구현하는 ‘어웨이’ 공개


http://www.bloter.net/archives/287708


A Way of Intelligent Driving

AWAY는 네이버랩스의 차량용 인포테인먼트 플랫폼입니다.
차량과 이동에 관한 정보 및 서비스, 자연스럽게 연결되는 미디어,
안전한 UX설계로 다양한 기기에서 새로운 주행 경험을 제공합니다.  https://away.naverlabs.com/





네이버랩스가 차량 내 개인 환경에 최적화된 IVI 플랫폼 ‘AWAY (어웨이)’와 이를 적용한 헤드유닛 디스플레이 타입의 하드웨어를 8월17일부터 공개한다. 카셰어링 기업 ‘그린카’와 손을 잡았다. 네이버랩스와 그린카는 연내 차량 1천대에 어웨이를 순차적으로 설치하고, 이후 전국 3천대까지 적용차량을 늘려 나갈 계획이다.


IVI(In-Vehicle Infotainment, 차량용 인포테인먼트)는 음악·오디오 같은 엔터테인먼트 콘텐츠와 길 찾기 같은 주행정보, 모바일 기기와 연동된 다양한 정보를 제공하는 기기 또는 기술을 말한다. 네이버랩스는 2016년 4월 카셰어링 업체인 그린카와 ‘커넥티드카’ 서비스 구현을 위한 업무협약을 체결한 바 있다. 커넥티드카란 자동차와 IT를 융합해 양방향 인터넷, 모바일 서비스 등이 가능한 자동차를 의미한다.


네이버랩스는 차량 내 미디어와 내비게이션 등의 정보 사용 환경과 운전자의 주행 안전을 고려해 24:9 화면 비율의 ‘헤드유닛 디스플레이’를 직접 설계·제작해 그린카에 탑재한다. 어웨이는 네이버 로그인을 통해 스마트폰에서 즐기던 경험을 그대로 그린카 차랑에 제공한다.



서울모터쇼에서 밝힌 어웨이 개발 목표

•“운전중 스마트폰을 쓰면 안전하진 않지만 그래도 쓰게 돼” : 차량 최적화 UX

•“운전중에 내비, 음악, 전화…여러 앱을 넘나들기 번거로워” : 핵심 기능 총합

•“길이 막힐 때 흥미로운 라디오나 음악만 있으면 지루하지 않아” : 개인화된 미디어 추천

•“운전할 땐 뭘 찾거나 알아보고 싶어도 혼자서 힘들어” : 조수석 친구 같은 에이전트


그린카 이용자는 네이버 로그인만으로 미리 저장한 목적지로 바로 길 안내를 받을 수 있으며, 네이버뮤직 내 리스트 음악도 차량 스피커를 통해 바로 감상할 수 있다. 또한, 어웨이 전용 내비게이션과 네이버뮤직, 오디오클립, 스포츠라디오 등 오디오 중심의 콘텐츠를 사용할 수 있다. 네이버의 방대한 지역정보와 연계한 ‘수요미식회 맛집 찾아줘’와 같은 음성인식 목적지 검색도 장점이다. 네이버랩스는 다양한 파트너들과의 협력을 통해 차량에서 즐길 수 있는 콘텐츠도 확대할 계획이다.


어웨이는 운전자의 주의 분산을 최소화하는 사용 설계에 집중했다. 운전에 지장을 받지 않으면서도 필요한 정보나 서비스를 안전하고 손쉽게 이용할 수 있는 인터페이스를 제공하고자 했다. 중요한 정보는 스플릿 뷰 기능을 통해 두 개의 화면에 최적화된 방식으로 동시에 보여준다.


송창현 네이버 CTO 겸 네이버랩스 대표는 “네이버랩스는 사용자를 둘러싼 공간과 환경을 깊이 이해하고 지능적인 이동성이 만들어낼 수많은 가능성에 주목하며 삶의 가치를 높이는 기술을 연구하고 있다”라며 “어웨이 역시 차량 내 공간과 운전자의 이동에 대한 이해를 통해, 더욱 안전하면서도 가치 있는 삶을 만들고자 하는 노력의 결과이다”라고 밝혔다.



...

반응형
반응형

[kakao] 카카오가 얘기하는 AI 


http://www.kakaocorp.com/ai/lookat



곧 스피커도 출시할 듯. https://kakao.ai/

반응형
반응형


네이버 비즈니스 플랫폼(NBP)의 클라우드 서비스인 ‘네이버 클라우드 플랫폼‘은 매달 마지막 주 목요일 저녁마다 신규 상품을 추가한다. NBP는 이번에도 네이버 클라우드 플랫폼에 네이버 API 중심의 신규상품 14개가 새롭게 추가됐다고 6월30일 홈페이지를 통해 밝혔다.

공개된 AI API는 ▲클로바 스피치 리코그니션 ▲클로바 스피치 씬티시스 ▲클로바 페이스 리코그니션 등을 포함해 총 6종이다. 이 외에 네이버 지도를 포함한 네이버 서비스 API는 3종, 보안 컴퓨팅 상품 6종이 있다.

신규 AI API 5종

■ 클로바 스피치 레코그니션(Clova Speech Recognition, CSR)
– 사람의 목소리를 텍스트로 바꿔 음성 인식 서비스에 활용할 수 있다. 한국어와 영어, 일어, 중국어(간체)를 지원한다.

■ 클로바 스피치 씬티시스(Clova Speech Synthesis, CSS)
– 음성 합성 API로 입력한 텍스트를 자연스러운 목소리로 재생해준다.

■ 클로바 페이스 레코그니션(Clova Face Recognition, CFR)
– 이미지 속의 얼굴을 감지하고 인식하여 얻은 정보를 제공한다. 네이버가 보유한 이미지 DB를 이용한다.

■ 파파고 SMT
– 대규모 학습 데이터에 기반을 두어 언어 자동 번역 서비스를 제공한다. 네이버 서비스를 통해 번역 품질에 대한 축적된 피드백으로 기술 한계를 보완했다.

■ 파파고 한국어 이름 로마화 (Papago Korean Name Romanizer)
– 현행 로마자 표기법에 맞춰 한글 이름을 로마자로 변환하는 서비스. 영어판 명함 작성, 신용카드 발급, 여권 발급 등에 사용할 수 있는 API이다.

신규 네이버 서비스 API 3종

■ 네이버 지도 API
– 네이버 지도 기능을 활용해 위치 기반 서비스를 만들 수 있도록 돕는다. 실시간 교통상황을 표시하거나 360도 파노라마 뷰를 활용하는 등 필요에 맞는 지도를 만들 수 있다.

■ 캡차 (CAPTCHA)
– 이미지를 보여주고 정답을 맞히게 해 사람과 컴퓨터를 판별하고 어뷰징을 막아준다. 입력 주체가 사람인지 컴퓨터인지 판별하기 위해 스타일이 다른 두 종류의 캡차 이미지를 랜덤으로 제공한다.

■ nShortURL
– 긴 URL을 짧게 줄여 글자수 제한이 있는 SNS나 SMS를 이용할 때 도움을 준다. 최근 유해 정보를 통해 유해 사이트 URL 단축은 차단한다. QR코드 이미지를 무료로 함께 생성할 수 있다.

박원기 NBP 대표는 “네이버의 기술과 서비스 노하우가 반영된 API 상품들은 고객들이 가장 기대하고 있는 상품 중 하나로, 이러한 클라우드 상품을 통해 기업들은 기술 및 장애 대응 등의 지원을 받으며 네이버의 서비스를 한껏 활용할 수 있게 됐다”라며 “앞으로도 AI 및 API 상품 라인업을 지속해서 추가함으로써 클라우드 플랫폼을 통해 내부의 기술과 노하우들을 널리 확산하도록 할 것”이라고 덧붙였다.

반응형
반응형
네이버, AI 기반 콘텐츠 큐레이션 서비스 ‘디스코’ 출시
AI 플랫폼 클로바의 추천 엔진을 탑재

네이버가 인공지능(AI) 플랫폼 클로바의 추천 엔진을 탑재한 콘텐츠 큐레이션 서비스 ‘디스코’(DISCO)를 출시했다고 5월31일 밝혔다. ‘콘텐츠’보다는 ‘추천’에 방점이 찍혀 있다. 디스코는 클로바의 고도화에 기여하는 서비스다.

디스코는 네이버의 콘텐츠 추천기술 ‘에어스'(AiRS) 등이 적용된 AI 플랫폼 클로바의 추천 엔진을 활용해 제작된 서비스다. 네이버는 ”갈수록 폭증하는 콘텐츠 환경에서 이용자가 자신의 취향에 맞는 콘텐츠를 서비스에서 발견하게 될 것이라는 의미로 ‘Discovery(발견)’에서 명명했다”라고 설명했다.

이용자는 디스코 앱을 실행하고 관심주제를 설정한 뒤, 해당 주제에 속하는 콘텐츠에 대해 ‘좋아’ 혹은 ‘싫어’ 같은 피드백을 제공한다. 그러면 디스코의 추천 엔진이 이용자 취향을 학습해, 이를 바탕으로 더욱 고도화된 추천 서비스를 제공한다. 이런 식으로 궁극적으로 이용자 취향에 맞는 콘텐츠들을 선별해 제공한다.

기본적으로는 이용자가 올린 콘텐츠 중에서 추천 콘텐츠를 고른다. 때문에 네이버가 제공하는 서비스이지만 브런치나 티스토리 등등 다양한 플랫폼의 글을 볼 수 있다. 이처럼 디스코는 내가 좋아하는 주제에 대한 콘텐츠 추천은 물론, 나와 콘텐츠 취향이 유사한 이용자들도 추천해 새로운 주제와 콘텐츠를 발견하고 함께 즐길 수 있도록 지원한다. 또한 비슷한 취향별로 이용자들이 자동 연계되는 구조를 통해, 생산자 혹은 큐레이터는 비슷한 취향의 이들에게 자신이 작성하고 수집한 정보를 자동으로 전달할 수 있다.

네이버는 “콘텐츠 유통을 위한 별도의 네트워크를 구축해야 했던 콘텐츠 생산자와 큐레이터는, 콘텐츠 작성과 수집에만 집중해도 기존 네트워크 이상 규모의 이용자들에게 자동으로 자신의 콘텐츠를 노출시킬 수 있게 됐다”라고 설명했다. 팔로워가 따로 없어도 자신이 생산한 콘텐츠를 유통시킬 수 있는 방법이 생겼다는 의미다. ‘비슷한 취향의 사람들이 좋아한 글’로 올려주는 방식이기 때문에 특정 분야만 잘 파도 어느 정도 유통이 될 수 있다.

개인 페이지에서는 자신이 ‘좋아’한 콘텐츠와 별도로 저장한 콘텐츠가 자동으로 분류 및 저장돼, 아카이브한 콘텐츠를 파악할 수 있도록 했다.

네이버는 “앞으로도 디스코 이용자들의 사용 행태와 다양한 피드백을 통해 서비스를 더욱 고도화하며, 지금까지와는 차별화되는 개인별 맞춤 콘텐츠 큐레이션 서비스를 선보여 나갈 예정”이라며 “디스코 이용자들의 피드백을 반영한 고도화된 추천 기술을 베타 테스트 진행 중인 인공지능 비서 앱 ‘네이버-클로바’의 사용성 개선에도 반영할 방침”이라고 밝혔다.


반응형
반응형
[카카오AI리포트]인간이 로봇에게 바라 온 도덕의 변화 : https://brunch.co.kr/@kakao-it/53

카카오 AI 리포트 Vol. 1 전체글 다운받기 : Kakao_AI_Report_Vol01_201703.pdf

.


반응형

+ Recent posts