물체에 대하여 특징 값을 추출
convolutional layer = 첫 입력 특징 확인
- activation map (feature map) 필터의 갯수가 깊이 depth (필터 마다 채널 적용 가능) 특징 추출
- activation layer (nonlinear layer) 범위 분포 지정
- pooling layer (subsampling)
RNN은 관련 정보와 그 정보를 사용하는 지점 사이 거리가 멀 경우 역전파시 그래디언트가 점차 줄어 학습능력이 크게 저하되는 것으로 알려져 있습니다. 이를 vanishing gradient problem이라고 합니다.
이 문제를 극복하기 위해서 고안된 것이 바로 LSTM입니다.
머신러닝은 크게 세가지 분류로 나누어진다. 첫번째는 지도학습(Supervised Learning), 두번째는 강화학습(Reinforcement learning)그리고 마지막은 비지도 학습(Unsupervised Learning)이다.
GAN은 이 중에서 비지도 학습
GAN은 분류를 담당하는 판별자 D(Discriminator), 그리고 랜덤한 노이즈에서 데이터를 만들어 내는 생성자 G(Generator)의 두개의 모델로 구성되어 있다.
이 두 모델은 GAN이라는 이름에서 쉽게 알수 있다. "Generative Adversarial Network" 이 이름을 풀어보자면 생성하며 대립하는 네트워크.
즉, 생성자 G와 판별자 D가 대립하며 서로의 성능을 개선시켜 나가는 모델
D가 V(D, G)를 최대화 하는 관점에서 보면 x~pdata(x)는 실 데이터의 확률분포이고 x는 그 중 샘플링한 데이터이다.
판별자 D는 출력이 실 데이터가 들어오면 1에 가깝게 확률을 추정하고, G가 만들어낸 가짜 데이터가 들어오면 0에 가깝게 한다.
Supervised Learning
Discriminative Model : Input이 들어갔을 때 Output이 나옴
Unsupervised Learning
Generative Model : train 데이터 분포를 학습
Discriminator를 먼저 학습 : 진짜 이미지가 들어가면 진짜로 구분, 가짜 이미지는 가짜로 구분
input : 이미지의 고정된 벡터
output : 진짜 / 가짜 : 1 (sigmoid를 통해 0.5 기준으로 classification)
generator는 랜덤한 코드를 받아서 이미지를 생성 -> 그리고 discriminator를 속여야 함(1이 나오도록 학습)
오픈소스 영상인식 검색어로 구글 검색 해 보면
오픈소스 영상인식 검색어로 구글 검색 해 보면 어떨까요?
세벌 https://sebuls.blogspot.kr/
ffmpeg decode 파트공부하시고 두 이미지의
ffmpeg decode 파트공부하시고 두 이미지의 유사도를 평가하는 방법에 대해서 알아보시면 될것 같네요.
왜냐면 영상속의 이미지는 디코딩 과정에서 조금씩 바껴서 비트 비교로는 일치성을 찾기가 어렵습니다.
더불어 h.264 에 대해서도 개요는 아셔야 될겁니다.
ffmpeg 써보세요.
----------------------------------------------------
개인 블로그: https://kangssu.com
참고해보세요.
//
이비스모바일, 드로잉 앱 ‘이비스 페인트’ 위한 딥러닝 기반 자동 채색 기능 출시
https://www.youtube.com/watch?v=YjCsASiOGmU
http://www.newswire.co.kr/newsRead.php?no=851227
//
반고흐 필터로 영상을 - 딥 러닝 기반의 영상 필터 프로그램
http://aliceon.tistory.com/2698
//
CNN ★ RNN ★ GAN ★ 설명 정리 - 딥러닝 Deep Learning ★★★★★ | 인공지능 AI 딥러닝
GAN 설명 : 무작위로 이미지를 읽으며. V(D, G) 값을 샘플링 해서. 실제 데이터는 1에 가깝고. 가짜 데이터는 0에 가깝게 만드는 확률 분포 함수
RNN 설명 : 순차적으로 누적된 데이터값을 여러장면에 덧그리듯이 패턴 분석
CNN 설명 : 4개의 값중에 가장 큰값이나 4개의 평균값을 추출하여 비교
//
CNN 설명 : 4개의 값중에 가장 큰값이나 4개의 평균값을 추출하여 비교
딥 러닝 : 데이터를 컴퓨터가 분석하여 처리
- 머신 러닝 : 인간이 트레이닝 데이터 준비 - 특징 분석 및 축적 - 컴퓨터가 처리
‘머신러닝-딥러닝’, 뭐가 다를까
http://m.zdnet.co.kr/news_view.asp?article_id=20170807140504#imadnews
복수 인공신경망을 1개 칩으로 처리…'모바일 AI 전용 칩' 개발
http://www.etnews.com/20180226000283
2차원 데이터를 학습하는 회선신경망(CNN) : 영상 및 이미지와 같은 데이터 처리
시간 흐름에 따른 데이터를 학습하는 순환 재귀신경망(RNN) : 음성인식 및 음악, 문자
[이미지인식 기술 어디까지 왔나] 점·선·도형으로 얼굴 인식...눈보다 정확하다
http://www.sedaily.com/News/NewsView/NewsPrint?Nid=1L5C03LY9W
딥러닝(텐서플로우) CNN, RNN
http://jayzzz.tistory.com/22
이미지인식 기술 발전의 핵심, 회선 신경망 기술(CNN: Convolutional Neural Network)
https://blog.naver.com/2011topcit/220580613076
Layer1 이미지의 4개중에 제일 큰값을 모아서 Layer2 이미지 생성
Layer1 이미지의 4개의 평균값을 모아서 Layer2 이미지 생성
블록체인ㆍ인공지능 워크숍 17∼19일 제주대서 개최
http://www.yonhapnews.co.kr/bulletin/2018/05/15/0200000000AKR20180515099100056.HTML?input=1195m
머신러닝 용어 몇 가지 정리 (GAN, CNN)
http://blogyong.tistory.com/19
CNN 초보자가 만드는 초보자 가이드 (VGG 약간 포함)
https://www.slideshare.net/leeseungeun/cnn-vgg-72164295
물체에 대하여 특징 값을 추출
convolutional layer = 첫 입력 특징 확인
- activation map (feature map) 필터의 갯수가 깊이 depth (필터 마다 채널 적용 가능) 특징 추출
- activation layer (nonlinear layer) 범위 분포 지정
- pooling layer (subsampling)
tensorflow/tensorflow
https://github.com/tensorflow/tensorflow/tree/master/tensorflow/contrib/slim
9월 2일 python 스터디 (CNN,RNN)
https://blog.naver.com/hyunji107/221088735635
RNN : 순서있는 데이터, 정해진 Length에 맞춰 CNN처럼 사용
케라스로 구현하는 딥러닝과 강화학습
https://blog.naver.com/hico01/221139025658
초짜 대학원생의 입장에서 이해하는 Unrolled Generative Adversarial Networks (2)
http://jaejunyoo.blogspot.com/2017/02/unrolled-generative-adversarial-network-2.html
DC GAN
https://datascienceschool.net/view-notebook/7788014b90364dd5ba9dc76f35b4cd7d/
이미지 생성기(generator)와 이미지 분별기(discriminator)가 서로 경쟁하며 트레이닝
소스 코드 있음
golbin/TensorFlow-Tutorials
https://github.com/golbin/TensorFlow-Tutorials/blob/master/07%20-%20CNN/01%20-%20CNN.py
ConvNet with WebGL
https://tensorflow.blog/2016/08/18/convnet-with-webgl/
GPU Deep Learning Demo
https://erkaman.github.io/regl-cnn/src/demo.html
Keras.js: run dl model with GPU
https://tensorflow.blog/tag/webgl/
CNN - GIGA PIXEL
https://edition.cnn.com/interactive/2018/05/world/royal-wedding-gigapixel/
[P] New browser-based CNN project with MNIST demo and training page
https://www.reddit.com/r/MachineLearning/comments/5nt5h6/p_new_browserbased_cnn_project_with_mnist_demo/
Handwritten Digit Recognition by Convolutional Neural Network
http://www.denseinl2.com/webcnn/digitdemo.html
CNN ECOSPHERE DEMONSTRATES THE POWER AND LIMITATIONS OF WEBGL
http://www.overdigital.com/2012/04/25/cnn-ecosphere-demonstrates-the-power-and-limitations-of-webgl/
webgl.souhonzan.org
https://webgl.souhonzan.org/entry/?v=0032
WebGL Physics Engine - Collison, fabric
https://www.youtube.com/watch?v=YaIO8mmTk0Q
http://soulrommel.cafe24.com
http://soulrommel.cafe24.com/PhysicsAnimation/Collision_Penalty/index.html
22 Experimental WebGL Demo Examples
https://www.awwwards.com/22-experimental-webgl-demo-examples.html
//
RNN 설명 : 순차적으로 누적된 데이터값을 덧그리듯이 패턴 분석
RNN과 LSTM을 이해해보자!
https://ratsgo.github.io/natural%20language%20processing/2017/03/09/rnnlstm/
RNN은 관련 정보와 그 정보를 사용하는 지점 사이 거리가 멀 경우 역전파시 그래디언트가 점차 줄어 학습능력이 크게 저하되는 것으로 알려져 있습니다. 이를 vanishing gradient problem이라고 합니다.
이 문제를 극복하기 위해서 고안된 것이 바로 LSTM입니다.
초보자를 위한 RNNs과 LSTM 가이드
https://deeplearning4j.org/kr/lstm
일반적인 인공 신경망(FFNets)
LSTM은 오차의 그라디언트가 시간을 거슬러서 잘 흘러갈 수 있도록 도와줍니다
lab12: TensorFlow에서 RNN 구현하기
https://www.youtube.com/watch?v=A8wJYfDUYCk
ML lab12-5: Dynamic RNN
https://www.youtube.com/watch?v=aArdoSpdMEc
difference sequence length
순환신경망(Recurrent neural networks) 개요
https://www.slideshare.net/ByoungHeeKim1/recurrent-neural-networks-73629152
//
GAN 설명 : 무작위로 이미지를 읽으며. V(D, G) 값을 샘플링 해서. 실제 데이터는 1에 가깝고. 가짜 데이터는 0에 가깝게 만드는 확률 분포 함수
초짜 대학원생 입장에서 이해하는 Generative Adversarial Nets (1)
http://jaejunyoo.blogspot.com/2017/01/generative-adversarial-nets-1.html
뭔가 Image를 만들어내는 녀석과(Generator) 이렇게 만들어진 녀석을 평가하는 녀석(Discriminator)이 있어서 서로 대립(Adversarial)하며 서로의 성능을 점차 개선해 나가자는 것이 주요 개념입니다.
[머신러닝]GAN - Generative Adversarial Network 훑어보기
http://artoria.us/7
머신러닝은 크게 세가지 분류로 나누어진다. 첫번째는 지도학습(Supervised Learning), 두번째는 강화학습(Reinforcement learning)그리고 마지막은 비지도 학습(Unsupervised Learning)이다.
GAN은 이 중에서 비지도 학습
GAN은 분류를 담당하는 판별자 D(Discriminator), 그리고 랜덤한 노이즈에서 데이터를 만들어 내는 생성자 G(Generator)의 두개의 모델로 구성되어 있다.
이 두 모델은 GAN이라는 이름에서 쉽게 알수 있다. "Generative Adversarial Network" 이 이름을 풀어보자면 생성하며 대립하는 네트워크.
즉, 생성자 G와 판별자 D가 대립하며 서로의 성능을 개선시켜 나가는 모델
D가 V(D, G)를 최대화 하는 관점에서 보면 x~pdata(x)는 실 데이터의 확률분포이고 x는 그 중 샘플링한 데이터이다.
판별자 D는 출력이 실 데이터가 들어오면 1에 가깝게 확률을 추정하고, G가 만들어낸 가짜 데이터가 들어오면 0에 가깝게 한다.
GAN(Generative Adversarial Network) 기초
https://zzsza.github.io/data/2017/12/27/gan/
Supervised Learning
Discriminative Model : Input이 들어갔을 때 Output이 나옴
Unsupervised Learning
Generative Model : train 데이터 분포를 학습
Discriminator를 먼저 학습 : 진짜 이미지가 들어가면 진짜로 구분, 가짜 이미지는 가짜로 구분
input : 이미지의 고정된 벡터
output : 진짜 / 가짜 : 1 (sigmoid를 통해 0.5 기준으로 classification)
generator는 랜덤한 코드를 받아서 이미지를 생성 -> 그리고 discriminator를 속여야 함(1이 나오도록 학습)
GAN을 이용한 Image to Image Translation: Pix2Pix, CycleGAN, DiscoGAN
https://taeoh-kim.github.io/blog/gan을-이용한-image-to-image-translation-pix2pix-cyclegan-discogan/
GAN tutorial 2016 정리(1)
https://kakalabblog.wordpress.com/2017/07/27/gan-tutorial-2016/
번역 - Generative Adversarial Network (GAN) 설명
http://keunwoochoi.blogspot.com/2016/12/generative-adversarial-network-gan.html
GAN이 잘 설명된 슬라이드
https://trello.com/c/24vgZmfz/1-gan이-잘-설명된-슬라이드
Generative adversarial networks
https://www.slideshare.net/YunjeyChoi/generative-adversarial-networks-75916964?qid=d51a8be6-1564-4153-a4ed-dc88b195ac04&v=&b=&from_search=1
GANs(Generative Adversarial Networks)
http://t-lab.tistory.com/15
InfoGAN: Interpretable Representation Learning by Information Maximizing Generative Adversarial Nets
https://www.slideshare.net/ssuser06e0c5/infogan-interpretable-representation-learning-by-information-maximizing-generative-adversarial-nets-72268213
Image-to-Image Translation with Conditional Adversarial Networks (arXiv : 1611.07004v1)
http://blog.naver.com/PostView.nhn?blogId=audtlr24&logNo=220990167303
[Book] 골빈해커의 3분 딥러닝 : 텐서플로맛
http://talkingaboutme.tistory.com/862
tensorflow 로 mnist 흉내내는 GAN 만들기
http://jaynewho.com/post/2
경쟁을 통해 이미지를 생성하는 법을 배우는 GAN
http://aidev.co.kr/index.php?mid=deeplearning&page=2&document_srl=988
GAN을 이용한 Image to Image Translation: Pix2Pix, CycleGAN, DiscoGAN
https://taeoh-kim.github.io/blog/gan을-이용한-image-to-image-translation-pix2pix-cyclegan-discogan/
CycleGAN : Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks - 컨셉
https://mikigom.github.io/jekyll/update/2017/07/11/cyclegan.html
//
어머니에게 딥러닝(CNN, RNN, GAN)을 설명해보자 // 포럼IT 딥토크 이벤트
https://www.youtube.com/watch?v=jvg8iQ2xnxM
인공지능을 위한 머신러닝 알고리즘 9강 컨볼루션 신경망 | T아카데미
https://www.youtube.com/watch?v=_6GwLjW9sbc
김태훈: 지적 대화를 위한 깊고 넓은 딥러닝 (Feat. TensorFlow) - PyCon APAC 2016
https://www.youtube.com/watch?v=soJ-wDOSCf4
NIPS 2016 - Generative Adversarial Networks - Ian Goodfellow
https://www.youtube.com/watch?v=AJVyzd0rqdc
Why all world maps are wrong
https://www.youtube.com/watch?v=kIID5FDi2JQ
Single Image Super-Resolution via Sparse Representations - Tomer Peleg
https://www.youtube.com/watch?v=7FUHte0RTTI&feature=share
lec 08-1: 딥러닝의 기본 개념: 시작과 XOR 문제
https://www.youtube.com/watch?v=n7DNueHGkqE
GAN Lecture 2 (2017): CycleGAN |
http://www.hay16.com/video9N_uOIPghuo/gan-lecture-2-2017-cyclegan-watch.html
Youtube Haku / Luka style transfer using CycleGAN
https://luchshee-video.ru/watch/Haku--Luka-style-transfer-using-CycleGAN/hgglsw4k6TM
Applications of deep learning
https://julien-vitay.net/masterdatascience/#/
Eyal Gruss and Eran Hadas - The Electronic Curator
http://nips4creativity.com/art/eyal-gruss-and-eran-hadas/
generate Chinese characters with W-GAN
https://www.youtube.com/watch?v=H5A0vQrJZtw
MindTrip
https://www.facebook.com/pg/TripNextdoor/posts/
Почему искуство не позволит заработать денег
http://cv-blog.ru/?author=1
StyleTransfer for HOTS
https://www.youtube.com/watch?time_continue=281&v=BZuWjWwYUyw
Windows Morph History
https://www.youtube.com/watch?v=LriXOVhDGdA
//
프로그래밍 언어별 딥러닝 라이브러리 정리
https://aikorea.org/blog/dl-libraries/
딥 러닝 Deep Learning - 신경망 알고리즘 & 소프트웨어 예제소스
http://deeplearning.net/
텐서플로 자바스크립트
https://js.tensorflow.org/
윈도우에서 텐서플로우 GPU지원 설치
http://lab.gamecodi.com/board/zboard.php?id=GAMECODILAB_Lecture&no=488&z=2
CUDA / CuDNN / Theano / TensorFlow 설치하기
http://newsight.tistory.com/92
주피터(Jupyter, IPython >= 3)의 다중 커널 개념 이해하기 - 파이썬2와 파이썬3 동시에 사용하기
https://blog.nacyot.com/articles/2015-05-08-jupyter-multiple-pythons/
How to install Jupyter Notebook Support for R
https://www.youtube.com/watch?time_continue=20&v=SXBxKe8sK6I
How to Execute python code on Jupyter Notebook First Time on Anaconda
https://www.youtube.com/watch?v=DPi6CAkUUPY
PyGPU 컴파일 ★ SciPy ★ PyConSG
GPU CLOUD
구글의 텐서플로우 ( TensorFlow ) ★ Disparity map ★ No memory left on the GPU ★ 메모리 2차원으로 접근하는 방법
1. QsharpVSIX.vsix 개발 킷 파일을 다운아서 설치합니다. (Visual Studio 를 종료한 상태)
Microsoft Quantum Development Kit
https://marketplace.visualstudio.com/items?itemName=quantum.DevKit
2. 예제소스를 다운받아서 컴파일 합니다.
Sample - 0. Introduction - Measurement 를 시작 프로젝트로 하고 실행하면 테스트 됩니다.
https://github.com/microsoft/quantum
Writing a Quantum Program 간략한 설명
https://docs.microsoft.com/en-us/quantum/quantum-writeaquantumprogram?view=qsharp-preview&tabs=tabid-vs2017
MS, 퀀텀 컴퓨팅용 Q# 언어 개발 키트
http://www.ciokorea.com/news/36658
//
동영상 재생 프로그램
- 곰플레이어 / 다음팟 플레이어 / KM 플레이어
- 윈도우 미디어 플레이어 / MPC-HC / VLC 플레이어
//
코덱
- FFMPEG
- Lav
//
통신 프로토콜
- RTSP
//
동영상 재생 가속
- DXVA2 VPU
//
하드웨어 연산 처리 가속
- CUDA
- GPGPU
----------------------------------------------------------------------------
젊음'은 모든것을 가능하게 만든다.
매일 1억명이 사용하는 프로그램을 함께 만들어보고 싶습니다.
정규 근로 시간을 지키는. 야근 없는 회사와 거래합니다.
각 분야별. 좋은 책'이나 사이트' 블로그' 링크 소개 받습니다. shintx@naver.com
참고해보세요.
웹캠 실시간 스트리밍
http://www.devpia.com/MAEUL/Contents/Detail.aspx?BoardID=50&MAEULNO=20&no=974683&ref=974679&page=1#Contents974683
Live555 test
http://cfile218.uf.daum.net/attach/276E744C52D6203C27FAFB
----------------------------------------------------------------------------
젊음'은 모든것을 가능하게 만든다.
매일 1억명이 사용하는 프로그램을 함께 만들어보고 싶습니다.
정규 근로 시간을 지키는. 야근 없는 회사와 거래합니다.
각 분야별. 좋은 책'이나 사이트' 블로그' 링크 소개 받습니다. shintx@naver.com
친절한답변 감사합니다~~
친절한답변 감사합니다~~
댓글 달기