반응형
“영상회의도 손쉽게”…AWS, ‘차임’ 출시   http://www.bloter.net/archives/272084

Amazon Chime: Frustration-Free Meetings with Exceptional Audio and Video Quality

AWS가 통합 커뮤니케이션(UC) 시장에 도전장을 내밀었다. 클라우드 시장에 이어 UC 시장에서도 구글, 마이크로소프트(MS), 시스코와의 경쟁이 예고된다.

아마존웹서비스(Amazon Web Services, AWS)는 2월16일 영상회의를 더욱 수월하고 효율적으로 만들어주는 새로운 UC 서비스 ‘아마존 차임’을 발표했다.

진 패럴 AWS 엔터프라이즈 애플리케이션 부사장은 “오늘날 회의에 사용되는 기술을 좋아하는 사람은 많지 않다”라며 “대부분 회의 애플리케이션 및 서비스는 사용하기 어렵고, 질 낮은 음성 및 영상을 제공하며, 사용자들이 원하는 것을 하기 위해서는 여러 솔루션을 전환해야 해 번거롭다”라며 아마존 차임 출시 배경을 밝혔다.

아마존 차임은 고품질 영상회의를 저렴한 비용으로 간편하게 사용할 수 있다는 걸 장점으로 내세웠다. 기존 기업 디렉토리와 통합할 수 있으므로 초기 투자금, 복잡한 구축 또는 지속적인 유지·보수가 필요 없다.

기업은 간단하게 아마존 차임 앱을 내려받아 이용하면 된다. IT 관리자는 관리 화면을 통해 조직 신원 관리나 접근 제어 여부를 설정할 수 있다. 이 과정에서 들어가는 도입 비용은 기존 솔루션과 비교해 33% 수준이다.

진 부사장은 “기존에 시장에 존재하는 UC 솔루션은 사용 비용 또한 너무 비싼 만큼 아마존 차임은 최상의 미팅 환경을 제공하며, 사용자들의 회의 생산성도 높일 수 있다”라며 “지속적인 유지 관리 또는 관리 비용이 없기 때문에 아마존 차임은 직원들 사용에 최적화된 솔루션을 찾고 있는 기업에게 훌륭한 방안이 될 것으로 기대한다”라고 말했다.

아마존 차임은 고품질 영상, 음성, 채팅 및 화면 공유 환경을 제공한다. 회의가 시작될 때 모든 참여자에게 전화를 걸어, 한 번의 버튼 클릭으로 앱 버튼을 클릭하는 것처럼 회의에 참석할 수 있다.


또한 데스크톱PC, iOS, 안드로이드 기기 등에서 회의를 주최하거나 미팅 참여, 채팅, 콘텐츠 및 화면 공유를 실시간으로 할 수 있다. 필요할 때마다 모바일에서 데스크톱 또는 앱에서 앱으로 옮겨가며 사용할 수 있다.


UC 서비스에서 보안을 위해 사용하는 PIN 번호도 요구하지 않는다. 아마존 차임은 회의 시작 시간이 되면 참가자에게 전화를 걸어, 클릭으로 한 번으로 참석할 수 있도록 돕는다. 참석이 늦어질 경우 ‘running late’ 버튼을 누르면, 회의에 참석하는 모든 사람에게 자동으로 통지한다.


소음 방지에도 신경 썼다. 회의 중 누군가의 시끄러운 타이핑 소리 또는 중도 참여 및 탈퇴로 인한 잡음이 들리면, 해당 참가자를 파악해 소리를 차단할 수 있는 ‘음소거’ 기능을 제공한다.


현재 AWS는 아마존 차임을 3가지 버전으로 나눠 출시했다. 무료로 제공되는 ‘아마존 차임 베이직 에디션’을 포함해 ‘아마존 차임 플러스 에디션’, ‘아마존 차임 프로 에디션’ 등이다.


베이직 에디션은 사용자에게 회의 참여, 음성·영상통화, 메시징 및 채팅 기능을 제공한다. 플러스 에디션은 사용자당 1GB의 메시지 저장 공간과 사용자 관리 기능을 추가로 제공한다. 사용자 관리 기능을 통해 사용자는 전체 이메일 도메인을 관리하고, 계정을 비활성화하거나 액티브 디렉토리를 구성할 수 있다. 사용료는 사용자당 월 2.5달러다.


프로 에디션은 사용자당 월 15달러에 이용할 수 있다. 최대 100명을 대상으로 화면 공유 및 영상 기능을 갖춘 회의를 주최할 수 있으며, 무제한 음성통신(VoIP) 지원과 함께 모바일, 노트북 및 실내 비디오에 대한 지원을 받을 수 있다.

반응형
반응형

tensorflow - Docker Toolbox로 윈도우에 설치하기.


* 참고 : 윈도우(Windows) 환경에서 Docker를 이용해서 Tensorflow설치하기
http://solarisailab.com/archives/384


Docker Toolbox Download :  https://www.docker.com/products/docker-toolbox



Docker Install :  https://www.tensorflow.org/versions/master/get_started/os_setup#docker_installation


설치하면서 VirtualBox도 체크했다. 


설치 후 Docker Quickstart Terminal 을 실행. 


뭘 다운로드받는다는데 한참동안 잠잠하다. 기다려 본다. 


IP를 할당 받을 수 있어야 Docker가 실행이 된다. 


Docker 실행되면 고래 그림 나옴. ㅋㅋㅋ


Docker Quickstart Terminal에서 아래의 명령어를 입력하면 현재 사용가능한 docker machine의 리스트들이 나온다.

$ docker-machine ls 


이제 아래의 명령어로 vdocker라는 이름의 새로운 docker machine을 생성한다.

$ docker-machine create vdocker -d virtualbox


내부아이피 문제 중. ㅋㅋㅋ 집에서 해야겠다. 










.

반응형
반응형

tensorflow - 윈도우에서 사용하기 


윈도우에서는 지원안했는데, 도커(Docker)를 사용해서 설치할 수 있다. 


https://docs.docker.com/docker-for-windows/ 에서 Docker를 다운받아 설치. 


검색해보니 설치는 기본옵션만 하라고 권고하는군. 설치시 Hyper-V를 선택해야 한다. 

혹시 Virtual Box가 설치되어 있다면 충돌이 생길 수 있다.


설치 되었으면 윈도우 기본 프롬프트창(CMD창)을 열어라.



* tensorflow 설치하기 

    https://www.tensorflow.org/versions/master/get_started/os_setup


 Docker install 을 클릭한다. 


설치할 이미지에 맞는 명령어를 선택해서 설치한다. 















.


반응형
반응형

깃허브에서 인기 높은 구글의 오픈소스 프로젝트 10종

1.Angularjs

2. 머티리얼 디자인 아이콘

3.머티리얼 디자인 라이트

4.‘고’ 언어

‘고’는 2009년 구글이 만든 프로그래밍 언어다. C언어의 대안 언어로도 평가되고 있으며, 현재 1.4버전까지 나왔다. 고 언어의 ‘고루틴(goroutine)’을 이용하면 보다 쉽게 동시성 프로그래밍을 할 수 있다. 복잡하게 작성하고 디버깅도 어려웠던 병렬처리도 고 언어에서는 편한 방법으로 처리할 수 있다. 빌드 속도가 빠른 것도 고의 장점이다. 또한 고는 헤더 파일 등을 통해 의존 관계를 분석하지 않는다. 그 덕분에 기존엔 몇 시간씩 걸리던 컴파일 시간을 줄일 수 있다.

아직 국내에서 고를 활용하는 사례는 적은 편이지만, 커뮤니티 중심으로 한글 문서화 작업이 이뤄지고 세미나도 열리고 있다. 해외에는 고를 도입한 사례를 종종 볼 수 있다. 유튜브, 히로쿠, 도커, 드롭박스 등에서 고 언어를 활용하고 있다고 밝혔다.

5. 웹 스타터 키트

‘웹 스타터 키트’는 말 그대로 웹 개발을 처음 시작하는 사람에게 제공하는 예제 소스다. 이제 막 웹 개발에 입문하는 사람이라면 웹 스타트 키트를 자습서로 활용할 수 있다. 구글이 어떤식으로 웹 개발을 진행하는지에 대한 기준도 알 수 있다. 웹 스타터 키트는 반응형 웹사이트가 부드럽게 구현될 수 있도록 신경썼고, Sass를 활용할 수 있게 지원했다. 성능을 높이고 여러 기기를 쉽게 동기화할 수 있는 기능도 구현돼 있다.

6.쿠버네티스

컨테이너 기술은 최근 엔터프라이즈 분야에서 큰 화두가 되고 있다. MS, IBM, VM웨어 등 클라우드를 준비하는 기업일수록 컨테이너를 지원하느라 바쁘다. 그 중 구글은 컨테이너 기술의 선두주자로 꼽힌다. 특히 오픈소스 전문기업인 레드햇과 손잡아 컨테이너 기술을 부지런히 연구하고 있다. 쿠버네티스는 구글이 오픈소스 형태로 연구하는 컨테이너 기술이다. 구글은 쿠버네티스를 기반으로 상용 클라우드 서비스도 만들고 있다. 쿠버네티스 뿐만 아니라 ‘c어드바이저‘, ‘LMCTFY(Let Me Contain That For You)‘라는 또 다른 컨테이너 오픈소스 기술도 공개했으며, 이 역시 개발자들에게 큰 관심을 받고 있다.

7.구글 I/O 2015 안드로이드 앱

‘구글 I/O’는 구글의 연례 개발자 행사다. 말하자면 ‘구글 I/O 안드로이드 앱’은 컨퍼런스 참가자들에게 도움을 주는 앱이다. 이미 올해 I/O 행사가 다 끝난 마당에 원본소스에 대한 관심이 높은 이유는 무엇일까? 바로 구글이 만든 앱 가운데 가장 재활용하기 좋은 앱이기 때문이다. 구글은 검색, e메일 등의 서비스를 제공한다. 일반 기업이 똑같이 검색, e메일 등의 앱을 만드는 경우는 드물다. 하지만 컨퍼런스, 세미나를 주최하는 기업들은 아주 많고, 관련 앱을 만들려는 기업도 많다. 구글도 깃허브 페이지에 “만약 앱을 만드는 사람이 있다면 이 소스코드가 좋은 시작점을 알려줄 것”이라고 설명하고 있다.

8.텐서플로

‘텐서플로’는 공식 출시 며칠 만에 많은 사람들이 즐겨찾기한 오픈소스 소프트웨어다. 깃허브는 일, 주, 월 단위로 가장 관심을 많이 받는 오픈소스 프로젝트를 집계하고 있는데, 텐서플로는 11월 둘째 주 가장 인기있는 프로젝트로 조사됐다. 머신러닝은 많은 IT기업들이 투자하고 있는 기술이다. 기술 수준은 아직 초기단계라 다양한 방법론과 실험이 이뤄지고 있다. 텐서플로는 머신러닝을 연구하는 사람들에게 좋은 참고자료가 될 것으로 보인다.

텐서플로라는 이름에서 텐서는 ‘다차원의 데이터 배열’를 처리한다는 의미에서 나왔다. 플로라는 단어는 노드와 엣지를 이용하는 데이터 흐름도(flow graphs)를 사용해서 쓰여졌다. 노드에서는 수학적 계산을 이뤄지거나 데이터 결과값이 보여진다. 텐서플로는 여러 노드들이 무엇인가 계산하거나 실행할 때 다차원 데이터 배열들이 막히지 않고 동시다발적으로 잘 흘러갈 수 있도록 도와준다.

9.딥드림

‘딥드림’은 구글 리서치팀이 만든 예제코드이다. 아이파이썬 노트북(IPython Notebook) 기반에서 확인할 수 있다. 예제코드는 신경망(Neural Network)을 활용해 그림의 일부를 바꿔 새로운 예술작품으로 만든 내용을 포함하고 있다. 구글은 이 예제로 신경망이 어떻게 작동하는지, 복잡한 분류 문제를 어떻게 해결했는지, 네트워크 구조를 어떻게 해결하는지에 대한 정보를 줄 수 있을 것으로 기대했다. 신경망과 예술을 결합한 조합 때문에 더 많은 사람들이 딥드림에 주목했다.

10.지브라크로싱

‘지브라크로싱’은 1차원 혹은 2차원 QR코드를 인식하는 기술이다. 최근 모바일에서 QR코드를 활용하는 경우가 많아져 지브라크로싱에도 관심이 높아지고 있다.



.

반응형
반응형

codecademy.com python 100% complete.



반응형
반응형

프로그래밍 언어 최근 순위 


http://www.tiobe.com/tiobe-index/


javascript 를 위주로 Python을  공부하며 Go에 관심을 가져야 하는 것이라고. 




더 큰 그림을 보려면 수십 년 전의 톱 10 프로그래밍 언어의 위치를 아래에서 찾으십시오. 이들은 12 개월 동안의 평균 포지션입니다.





.

반응형
반응형

유다시티, 자율주행차 시뮬레이터 오픈소스로 공개


http://www.bloter.net/archives/271788


온라인 교육 업체 유다시티가 자율주행차 시뮬레이터를 오픈소스 기술로 공개했다고 2월8일 밝혔다.


이번에 공개한 시뮬레이터는 유다시티 온라인 강의 ‘자율 주행차 엔지니어링 과정’의 일부 수업 자료다. 자율 주행차 엔지니어링 과정은 유다시티 뿐만 아니라 BMW, 우버, 디디추싱, 메르세데스 벤츠, 엔비디아 등이 함께 협력해 만든 강의로 딥러닝, 컨트롤러, 컴퓨터 비전, 자동차 하드웨어 등을 가르친다. 강의는 유다시티 설립자이자 과거 구글에서 자율주행차 개발을 이끈 세바스찬 스런이 직접 진행하기도 하다. 유다시티는 이 강의를 위해 오픈소스 자율자동차 소프트웨어를 개발하고 있으며, 이와 관련된 소스코드를 깃허브에 전부 공개했다. 여기에는 주행 기록 데이터, 딥러닝 모델, 카메라 마운트 기술 등이 포함돼 있다.



A self-driving car simulator built with Unity 


Welcome to Udacity's Self-Driving Car Simulator

This simulator was built for Udacity's Self-Driving Car Nanodegree, to teach students how to train cars how to navigate road courses using deep learning. See more project details here.

All the assets in this repository require Unity. Please follow the instructions below for the full setup.

Avaliable Game Builds (Precompiled builds of the simulator)

Instructions: Download the zip file, extract it and run the exectution file.

Version 2, 2/07/17

Linux Mac Windows

Version 1, 12/09/16

Linux Mac Windows 32 Windows 64

Unity Simulator User Instructions

  1. Clone the repository to your local directory, please make sure to use Git LFS to properly pull over large texture and model assets.

  2. Install the free game making engine Unity, if you dont already have it. Unity is necessary to load all the assets.

  3. Load Unity, Pick load exiting project and choice the self-driving-car-sim folder.

  4. Load up scenes by going to Project tab in the bottom left, and navigating to the folder Assets/1_SelfDrivingCar/Scenes. To load up one of the scenes, for example the Lake Track, double click the file LakeTrackTraining.unity. Once the scene is loaded up you can fly around it in the scene viewing window by holding mouse right click to turn, and mouse scroll to zoom.

  5. Play a scene. Jump into game mode anytime by simply clicking the top play button arrow right above the viewing window.

  6. View Scripts. Scripts are what make all the different mechanics of the simulator work and they are located in two different directories, the first is Assets/1_SelfDrivingCar/Scripts which mostly relate to the UI and socket connections. The second directory for scripts is Assets/Standard Assets/Vehicle/Car/Scripts and they control all the different interactions with the car.

  7. Building a new track. You can easily build a new track by using the prebuilt road prefabs located in Assets/RoadKit/Prefabs click and drag the road prefab pieces onto the editor, you can snap road pieces together easily by using vertex snapping by holding down "v" and dragging a road piece close to another piece.


Self-Driving Car Simulator





.


반응형
반응형

텐서플로(Tensorflow) 시작하기


https://gist.github.com/haje01/202ac276bace4b25dd3f



소개

텐서플로우(TensorFlow)는 기계 학습과 딥러닝을 위해 구글에서 만든 오픈소스 라이브러리입니다. 데이터 플로우 그래프(Data Flow Graph) 방식을 사용하였습니다.

데이터 플로우 그래프

데이터 플로우 그래프는 수학 계산과 데이터의 흐름을 노드(Node)와 엣지(Edge)를 사용한 방향 그래프(Directed Graph)로 표현합니다.

data flow graph

노드는 수학적 계산, 데이터 입/출력, 그리고 데이터의 읽기/저장 등의 작업을 수행합니다. 엣지는 노드들 간 데이터의 입출력 관계를 나타냅니다.

엣지는 동적 사이즈의 다차원 데이터 배열(=텐서)을 실어나르는데, 여기에서 텐서플로우라는 이름이 지어졌습니다.

텐서(Tensor)는 과학과 공학 등 다양한 분야에서 이전부터 쓰이던 개념입니다. 수학에서는 임의의 기하 구조를 좌표 독립적으로 표현하기 위한 표기법으로 알려져 있지만, 분야마다 조금씩 다른 의미로 사용됩니다. 여기에서는 학습 데이터가 저장되는 다차원 배열 정도로 이해하시면 되겠습니다.

특징

텐서플로우는 다음과 같은 특징을 가집니다:

  • 데이터 플로우 그래프를 통한 풍부한 표현력
  • 코드 수정 없이 CPU/GPU 모드로 동작
  • 아이디어 테스트에서 서비스 단계까지 이용 가능
  • 계산 구조와 목표 함수만 정의하면 자동으로 미분 계산을 처리
  • Python/C++를 지원하며, SWIG를 통해 다양한 언어 지원 가능

이후의 설명은 Python을 중심으로 진행하겠습니다. (pip를 통한 Python3설치는 개발 중으로, Python2 기반으로 하겠습니다.)

"구글이 텐서플로우를 오픈소스로 한 것은, 기계 학습이 앞으로 제품과 기술을 혁신하는데 가장 필수적인 요소라고 믿기 때문입니다." - Google Brain Team

설치

텐서플로우는 설치가 비교적 쉬운 편입니다만, 다음과 같은 제약이 있습니다:

  • Unix계열 OS(Linux/Mac OSX)만 지원합니다.
  • GPU 버전은 Linux만 지원합니다.

Linux / Mac OSX

Unix 계열 OS를 사용하시는 분들은 공식 페이지의 설치 문서를 참고하시면 쉽게 설치할 수 있습니다.

윈도우

윈도우 사용자 분들은 가상 머신을 이용하거나, 도커 툴박스 설치 후 진행하시기 바랍니다.

이미지를 받고 컨테이너 실행

텐서플로우의 도커 이미지는 소스코드, 예제, 툴도 포함되어 있기에 풀 버전을 받는 것을 권합니다.

Linux / Mac OSX

Unix 계열 OS에서는 아래의 명령을 실행하면 이미지를 받고 컨테이너가 실행됩니다. 컨테이너 실행 후 자동으로 컨테이너 안의 쉘 환경으로 들어가게 됩니다.

docker run -it b.gcr.io/tensorflow/tensorflow-full

컨테이너 안의 /tensorflow 폴더에 소스가 설치되어 있습니다. (주의: 이 폴더에서 모듈을 import 하시면 에러가 발생합니다. )

윈도우

윈도우의 경우 Docker QuickStart Terminal 실행 후(이때 고래 그림 아래의 IP를 기억해 둡니다) 아래와 같이 실행하시기 바랍니다.

winpty docker run -it -p 8888:8888 b.gcr.io/tensorflow/tensorflow-full

이미지를 받은 후 컨테이너가 실행되면, Jupyter 노트북 서버가 자동으로 시작된 상태입니다. 웹브라우저에서 '위의IP:8888'을 입력하면 Jupyter Notebook 환경에 접속됩니다. 여기에서 tensorflow를 사용하실 수 있습니다.

동작 확인

설치가 잘 되었는지 다음의 코드로 확인해봅니다.

$ python

>>> import tensorflow as tf
>>> hello = tf.constant('Hello, TensorFlow!')
>>> sess = tf.Session()
>>> print sess.run(hello)
Hello, TensorFlow!
>>> a = tf.constant(10)
>>> b = tf.constant(32)
>>> print sess.run(a+b)
42
>>>

.

반응형

+ Recent posts