'강한 인공지능'을 실제로 개발중이라는데요.

dymaxion의 이미지

아래의 글은 새벽에 제 구글+ 계정에 올린 글인데
팔로우한 사용자들이 너무 적은 단계인지라 (ㅠㅠ)
여기에도 묶어서 올려 둬 볼려구요.

벤 고츨 박사가 OpenCog 프로젝트라는걸 하는데
최종 목표가 무시무시한 거라서
인상적입니다.

========================================================

* [OpenCog 1/6] 미래의 기술 - 인공지능

인공지능.
애플의 Siri가 요즘 화제다.

Siri는 개인비서(Personal Assistant) 기능에 충실한
일종의 전문가시스템으로 분류할 수 있을 것 같다.
DARPA 프로젝트인 Calo (Cognitive Assistant that Learns and Organizes)가 전신인데
군사용에서 민수용으로 상업화를 시도하고자
SRI에서 SIRI 회사를 만들고 애플에 매각했다.
(참고 https://pal.sri.com/ )

애플은 여기에 뉘앙스 음성인식기를 붙이고
울프램알파 지능형 검색을 결합시킨 후
공개한 것이라고 하면 되겠다.
곧 애플이 이걸 발전시켜서
전자상거래 따위와 결합해서 나중에 엄청난 수익모델을 만들어낼지 모른다고들 한다.

시스템적으로 보면 Siri의 본체는 애플 클라우드의 일환으로 원격지에 있고
클라이언트는 통신을 이용해 데이타를 주고받도록 되어 있는데
시스템상 하나의 거대한 슈퍼컴퓨터라고 해야 할수도 있겠다.

SIri의 지능은 어느정도인지 알려진 정보가 부족하기 때문에 예단하기 어렵지만
소위 말하는 '강한 AI' 범주에는 들어가지 못하고
'약한 AI'로 분류할 수 있다고 생각된다.
입력된 문장의 기본적인 분석에서 한걸음 더 나아가
문맥(Context)을 추론해 내서 숨겨진 의도를 알아내는 부분이 바로
사용자들이 희열을 느끼는 키포인트가 되고
다른 제품과의 최대 차별점이 되는 듯 하다.

몇년전에 SK의 윤송이 상무가 1mm라는 인공지능형 서비스를 개발했었는데
참담하게 실패로 끝났다.
사실 따지고 보면 Siri의 지향점과 큰 차이가 없는 인공지능 기반의 야심찬 서비스였는데
꾸준하게 잘 발전시켜 나갔다면 어찌되었을지 모르겠다.
바로바로 성과가 나오지 않으면 욕먹는 한국의 빨리빨리 기업문화 때문일지도 모른다.
하드웨어도 안 받쳐주고,
비지니스 모델도 사용자에게 돈 내놓으라는 소리밖에
안하니 짜증나서 아무도 안 쓴 듯 하다.
세금도 직접세는 조세저항이 큰 법인데 말이다...

아무튼
Siri에 관한 기술적 정보는 사실상 알려진 것이 없는 것 같다.
애플의 비밀주의 정책 때문이겠지...
Calo 프로젝트에 관한 웹페이지를 이리저리 검색해 보는 것으로
개괄적인 정보의 편린을 알아볼 수 있을 뿐이다.

인공지능 관련해서 모든 교과서나 설명문에서는
'강한 인공지능의 구현은 요원한 일이다'라고 기술되어 있는데
정말로 요원한 일일까...?
인공지능 학계에서조차 그것의 가능성을 낮게 보는 듯 하다.

현존 최고 수준의 인공지능이라고 할 수 있는
애플 Siri 또는 IBM 왓슨 같은 것들은 전부 '약한 AI'의 범주에 속한다.

그런데 이런 의문도 든다.
'강한 AI'를 지금 연구하는 사람이 정말로 하나도 없을까?
다들 진짜로 포기해 버린 건가?
혹시 개중에 미친 사람 하나쯤은 있을 것 같다.

AI 관련 오픈소스 프로젝트가 없나 싶어 검색해 보던 중에
그런 미친 사람이 진짜로 있다는 사실을 알았다.
그 사람과 그의 야심에 대해서 좀 써볼까 한다.

========================================================

* [OpenCog 2/6] 강한 인공지능 개발이 가능한가

픽션상에 등장하는 인상적인 인공지능의 사례로
스탠리큐브릭의 영화에 나오는 HAL9000
스타워즈 영화에 나오는 C3PO
'포탈'이라는 게임에 나오는 GlaDOS
등이 생각난다.

이중에 GlaDOS 라는 녀석이 상당히 독특한 캐릭터이던데
우선 인간의 인격이 이식되어 개발된 매드 사이언티스트의 작품이다.
아주 똑똑하고 잔인한 성격이다.
이 녀석에 대항하는 인공지능이 '휘틀러'라는 녀석인데
멍청하고 실수투성이의 녀석이다.
C3PO와 비슷한데 차이점은 성격이 좀 적극적이라서 사고도 크게 친다는 거.
달리말해 '어린이'와 비슷하다.
GlaDOS나 휘틀러의 '임무'는 '실험'을 계획하고 수행해서 학습하는 것이다.
게임의 설정에서는 그 '실험'을 계속 창안해 내면서 영원히 수행하는 걸로 되어 있다.
과학의 발전을 위해서.

'강한 AI'가 실제로 개발되어 나온다면 아마 이 휘틀러와 비슷한 수준이 아닐까
상상을 해 볼 수 있다.
어른 정도의 사려깊음과 깊은 생각은 못하지만
일상적인 의사소통에 문제가 없고 단순한 성격을 가지고 있으며
특정 목적이 아닌 일반적인 상황에서 지능적 반응을 해야 하고
주어진 임무(실험 같은 것)를 지능적으로 해내는 형태로 생각해 볼 수 있다.
그정도 수준이 되면 '휘틀러' 그 자체가 아닐까....

추측컨데
그런 '강한 AI'를 실제 개발해 내는 과학자는 아마도
진짜 '매드 사이언티스트' 처럼 성격도 일반인과 다를 것 같다.
생긴것도 미친 사람 처럼 생겼겠지...
머리도 막 아무렇게나 헝클어진 장발일 것임에 확실하다!

미친 엔지니어가 미친 물건을 만들어 낼 것이다.

========================================================

* [OpenCog 3/6] 로봇

로봇.

현재 ISO 국제표준기구에서 '로봇'에 대한 표준을 재정의 중에 있다.
이를 위한 워크그룹을 주도하는 학자들 중에 한국의 교수님들도 포함되어 있고.
로봇의 의미를 재정의하자고 한국 학자들이 제안한 이유는
기존의 ISO 정의에서는 단순한 '산업용 로봇'에 관한 표준만 있었기 때문에
새로운 '지능형', '서비스형' 로봇에 관해서도 의미를 확장시켜야 할 필요가 생겼기 때문이다.

아무렴, 액츄에이터의 갯수는 2개 이상이 되어야 로봇이지.
자체적인 판단을 할 수 있는 인공지능이 탑재되어야 로봇이지.
...
이런 식으로 논의를 하다가
기존 산업용 로봇 업계를 장악하고 있는 유럽 업체들이 반발했다고 한다.
왜냐면 산업용 로봇에 지능이 있을리가 없쟎아...
그냥 작업을 티칭해서 반복시키거나, 사람이 리모트 콘트롤하는 방식의
산업용 로봇이 많기 때문에,
'인공지능이 들어가야만 로봇이라고 부를 수 있다'고 해 버리면
그 수많은 산업용 용접 로봇이라던가 팔레타이징 로봇 같은 놈들을
더이상 '로봇'이라고 부를 수 없게 되기 때문이다.

아무튼 그런 식으로
한국을 위시한 신흥국 vs 유럽계 업체들의 대립 구도로
현재 워크그룹에서 협의를 하면서 표준을 만들고 있는 모양이다.
아무래도 '인공지능의 유무'에 따른 '로봇'의 범주는 설정되지 않을 듯 하다.

ISO 표준은 뭐 그렇다 쳐도
우리의 마음속의 로봇에 대한 궁극적인 로망은 결국 인공지능임에는 틀림없다.
인공지능이 있어야 로봇이지. 암 그렇고 말고.

그런데 로봇 업계에서 적용할만한 인공지능이래봐야
음성인식, 영상인식, 감성엔진 뭐 이딴것 밖에 없다.
진짜 강한 인공지능은 없다는 것.

게다가 실제 로봇 개발 업체들을 보자...
대부분 하위 플랫폼 개발에 허덕대고 있는 중이다.
메커니즘의 고안 및 설계라던가
모션 제어 문제라던가
영상인식을 어떻게 좀 더 잘할까 라던가
경로를 어떻게 최적화 시키나 이딴 것들....

인간으로 치면
몸체 만들고 자율신경계 구성하는 정도 수준이고
아직 '대뇌 피질'은 돌아볼 여력조차 없다.
기존의 로봇 연구 집단들은 대부분 그렇다.

앞서 언급되었던 '매드 사이언티스트'가
멋진 인공지능을 만들어서 현재의 로봇들에게
왕관처럼 얹어주기를 애타게 기다리고 있는 것이다.
사실을 말하자면
대부분의 로봇 개발자들은 그런 멋진 인공지능이
자신의 생애가 끝나기 전에 출현할 거라는 기대를 버린지 오래 되었다.

'산타클로스는 없어'라고 귀에 속삭여주는
짖꿎은 삼촌을 만난 소년의 심정이랄까.

산타클로스는 없어..... ㅠㅠ

========================================================

* [OpenCog 4/6] 매드 사이언티스트

벤 고츨 박사 (Dr. Ben Goertzel)

이라는 사람이 있다고 한다.
어떤 사람인지 알아봤다.

1966년생. 유태계 브라질 출신 미국인.
1968년 미국에 이주, 히피 문화 영향을 받으면서 성장.
1982년 15세에 영재전문 교육기관인 사이먼스락 대학교 입학. ( http://www.simons-rock.edu/ )
1984년 학교에서 나중에 부인이 되는 그웬을 만남.
1985년 수학 학사로 졸업, 뉴욕대 쿠런트 인스티튜트 수학과( http://cims.nyu.edu/ )에 석사 입학. 인공지능에 꽂혔음.
1987년 필라델피아로 이사감. 템플대학교 수학과 석사과정 이수. 결혼. 피아노 연주 시작. 공상과학 소설 쓰기 시작.
1989년 템플대학교 박사학위 땀. 라스베가스로 이사가서 첫직장은 라스베가스 대학교 수학교수로 임용. 첫 아들인 '짜라투스트라 아마데우스'가 태어남.
1993년 둘째 아들 '제불론 율리시스' 출산. 뉴질랜드로 이사감. 와이카토 대학교 컴퓨터 과학과에서 강의함. 여행 많이 다님. 책 2권 저술함.
1995년 호주 퍼스로 이사감. 서호주 대학교 인지과학 리서치 팰로우쉽으로 취직.
1997년 학술 세계를 떠나기로 결심. 뉴욕으로 가서 소프트웨어 회사 '인텔리제네시스 사(나중에 웹마인드 사로 이름이 바뀜)'창업. 진정한 인공지능을 개발해서 돈을 버는 것을 목적으로 함. 딸 출산. 책 1권 탈고. 뉴욕 스테이튼 아일랜드 대학에서 강의.
2001년 웹마인드사 폐업. '인터넷 지능의 창조' 책을 출판함. 뉴멕시코로 이사감. 뉴멕시코대학교 컴퓨터과학과 연구교수로 임용. 웹마인드를 계승하는 노바멘테 유한회사 창업. 노바멘테의 기술을 바이오포메틱스에 응용하려는 의도로 바이오마인드 유한회사 창업.
2002년 바이오마인드 사를 위한 투자자 펀딩을 조금 받기 위해 위싱턴DC로 이사함. (투자자가 자기 근처에 회사가 있어야 한다고 해서) 그웬과 이혼함.
2004년 이자벨라 리온 프레이레와 재혼함.
2005~2007년 노바멘테, 바이오마인드사에서 인공지능 연구를 계속 실시함. 연구자들의 커뮤니티에 AGI 개발 소식을 공표함. AGI컨퍼런스를 조직함. 공상과학 소설 하나 끝냄. 다른 소설 하나 출판함.
2008년 OpenCog 프로젝트 발족. 책 한 권이랑 공상과학소설 한 권 냄.
2010년 홍콩 공대랑 OpenCog를 게임 캐릭터에 적용하는 연구 시작.

대충 보면 그냥 엄친아 천재 같다.
히피스러운 광기 같은게 있는 것 같고
(피아노연주 동영상 : http://www.youtube.com/user/bengoertzelseviltwin#p/u/17/vTPOKGRbCJs )
방랑벽도 있어 보이고
15살에 대학 들어가서 23살에 박사. 31살에 창업.
35살에 오픈소스 인공지능 개발을 본격적으로 시작.
우리나라 같은 곳에서는 흔히 보기 어려운 타입의 천재로 생각된다.

* 벤 고츨 박사의 개인 블로그 ::: http://wp.goertzel.org

집안을 보니,
할아버지 빅터 고츨은 심리학 박사 ( http://crab.rutgers.edu/~goertzel/VictorGoertzel.htm )
아버지 테드 고츨은 사회학 박사 ( http://www.crab.rutgers.edu/~goertzel/ ) 로,
"룰라:가장 성공적인 정치가(Lula:The World's Most Successful Politician)"라는
베스트셀러도 저술한 분인가보다.
브라질이 고향이라서 그런지, 모국에 대한 애정이 느껴진다.
조강지처였던 그웬은 동아시아의 선불교에 푹 빠진 미술작가인데 역시 박사학위 보유자.
아무튼 대단한 인텔리 집안이다.

아무튼 여러모로 살펴봤을 때,

(1) 매드 사이언티스트로서의 광기
(2) 천재성
(3) 인문학적 소양
(4) 능력

등등 모든 면에서
'강한 인공지능'을 개발해 낼 수 있는 조건을 갖춘 듯 하다.
이 사람이 그걸 만들겠다면 실제로 할 수 있지 않을까?

그걸 해내겠다고 결심하고 구체적으로 행동에 옮긴게 바로
2008년 OpenCog 프로젝트다.

* 벤 고츨 박사의 강의 동영상
http://vimeo.com/19865692
http://k21st.wordpress.com/

========================================================

* [OpenCog 5/6] 오픈소스 프로젝트

OpenCog 프로젝트

벤 고츨 박사가 강한 인공지능을 구현하기 위해 한 일을 한 번 복기해 보자.

일단은 이론 연구가 필요하다.
이론은 자기 자신이 전공자이므로 핵심 브레인 역할을 할 수 있고
또 학계의 커뮤니티도 있다.
학제적인 연구가 필요하므로 다른 전공의 연구자들과 팀을 만들어 수행한다.
이런 이론 연구 과정에서는 사실 돈 들일은 별로 없으므로 큰 문제는 아니다.

문제는 구현 과정에 있다.
구현을 위해서는 방대하고 정교한 소프트웨어 개발이 필요한데
전문적인 개발자와 개발환경이 갖추어져야 하며
잘 조직된 개발팀으로 구성되어야 한다.
개발팀은 장기간 영속성이 있어야 하므로 재원이 필요하다.

재원 조달을 위해 회사를 설립한다.
회사의 직원 일부는 자사의 기술과 지식을 활용한 엔지니어링 및 컨설팅 서비스를 통해 돈을 번다.
(자연어 처리, 데이터 마이닝, 금융 알고리즘, 게임 인공지능 기술 등을 제공)
나머지 3~4명 정도는 그 돈을 기반으로 인공지능 연구개발에 올인한다.

하지만 소규모 개발팀으로는 한계가 있다.
그럼 커뮤니티의 도움을 얻어보자.
개발되는 소프트웨어의 프레임웍을 오픈소스로 공개한다.
후원금을 모금하고 컨퍼런스를 열어 지식을 교환하고 이슈를 만든다.

중국, 홍콩의 대학교와 협력하여 파생 프로젝트를 진행한다.
연구의 성과를 높인다.

일본, 한국의 기업과 접촉을 지속한다.
기술이 어느정도 성숙되었을 때 대규모 투자를 유치할 수 있는 기반을 만들어간다.

대충 이런 모델로 진행해 온 것 같다.

OpenCog 프로젝트는 전체 인공지능 시스템을 구현하기 위한 기본 재료가 되는
프레임웍을 완전하게 갖추는데 목표가 있다.
프레임웍이 어느정도 구현되고 있으므로
현재는 이것을 활용한 '상품'을 중간 결과물로 만들어서 팔려고 하고 있다.
컴퓨터 게임 내의 캐릭터에 인공지능을 부여할 수 있는 미들웨어라고 한다.
이것을 개발하여 게임 개발업체들에게 제공하여 돈을 번다.
이 미들웨어는, OpenCog 프레임웍 개발 및 이론 검증을 위한 시뮬레이션을 위해
만들어진 것을 조금 손봐서 쉽게 상품성을 갖춘 것이다.

컴퓨터 게임 속에서 작동되어야 할 인공지능의 개체수는 수많은 캐릭터가 있을 것이므로
온라인 게임 같은 경우에는 게임 서버를 최대한 경제적으로 리소스를 적게 소모하면서
높은 수준의 자율적인 지능형 캐릭터가 되도록 구현되어야 한다.
이런 상품 부분은 오픈소스가 아닌 독점 상품으로서 기술 보안을 유지하여
계속 돈을 번다.

이렇게 사업을 하면서 발생한 이익금을 재투자하여 연구를 지속한다.
연구가 본궤도에 오르면서 규모가 점점 커질 것이고
자체 수익으로는 재원조달이 부족할 것이므로
벤쳐캐피탈의 투자를 받는 것도 계획중인 듯 하다.
대규모 자본을 투자받을 경우, 개발 속도가 3배 가량 가속되므로
(더 많은 엔지니어를 고용할 수 있으므로)
향후 4~5년 정도 안에 가시적이고 섹시한 결과물을 내놓겠다는 복안이다.

========================================================

* [OpenCog 6/6] 싱귤러리티

그럼, 이런 형태로 연구를 지속하면서 확대해 가는데 무리가 없고
연구 성과도 스케쥴에 따라 잘 나온다고 할 경우
다음의 로드맵을 따르게 된다.

* 로드맵 출처 ::: http://opencog.org/roadmap/

2001~2007년 노바멘테 회사에서 베이스 소스코드 자체 개발 (NCE엔진)
2008~2010년 NCE엔진을 SIAI 재단에 이관하여 오픈소스화하고 몇가지 필수 툴 개발
2011~2012년 가상현실 실험 실시. 완결판인 OpenCog 버전 1.0 공개.
2013~2014년 인공지능 프로토타입 완성. OpenCog 버전 2.0 공개.
2015~2016년 학습 및 추론 능력 향상.
2017~2018년 전문가 시스템 추가.
2019~2021년 완전한 인간 수준의 인공지능 완성~!!

2011년 현재의 수준을 보면..
가상공간 안에서 상대방의 춤동작을 보고 배워서
자신의 조건에 맞게 추론해서 최적화시킨 후
춤을 따라 추는 시뮬레이션이라던가
로봇에 이식해서 환경에 적응시켜 본다던가 하는 것 같다. (데모 영상 http://muttbreath.com/ )

2021년이 되면 인간 어린이 정도로 느껴지는 아주 멋진 인공지능이 나온다.
이 인공지능은 단순히 인간과 의미없는 상호작용을 하는 정도가 아니고
전문가 시스템 이라던가 학습, 추론 등의 모든 특성이 부여되어 있기 때문에
'인공 과학자' 개념을 상정하고 있는 듯 하다.

즉 포털 게임에 등장하는 '휘틀러' 처럼
스스로 실험도 하고 그 결과를 추론해서 결론도 내고
실수로부터 배우기도 하는 놈이라는 거다.

혹시
이넘이 부팅시키고 1초 후에
자아를 자각하고 폭주해서 인류를 멸망으로 몰아넣을지도 모른다.
부디
부팅시킬 때 이더넷 카드는 제거해 놓고 오프라인 상태로 해 주길...

아무튼 개발에 성공하면
인류멸망 보다는
벤 고츨 박사가 떼돈을 벌 확률이 훨씬 높겠다.

인공지능이 인간지능을 넘어서는 순간을 '싱귤라리티(특이점)'이라고 부른다고 한다.
인공지능 연구자들의 일종의 슬랭 같은 느낌이다.
벤 고츨 박사가 성공하면 바로 그날이 싱귤라리티가 되는 건가......

* 참고 URL
(1) http://opencog.org
(2) http://singinst.org
(3) http://blog.aladin.co.kr/qualia/2818808
(4) http://jpnews.tistory.com/8285
(5) http://jpnews.tistory.com/6840
(6) http://www.physorg.com/news/2011-06-dr-ben-goertzel-artificial-intelligence.html

========================================================

익명 사용자의 이미지

컴퓨터과학에서 말하는 인공지능 학문이 인지과학의 일부입니다.
실제로 강한(strong) 인공지능이 연구되고 있습니다.

http://ko.wikipedia.org/wiki/%EC%9D%B8%EC%A7%80%EA%B3%BC%ED%95%99

http://en.wikipedia.org/wiki/Cognitive_science

인공신경망, DNA 프로그래밍, 유전자 프로그래밍, 진화 프로그래밍 등 신기한 것들이 많이 있습니다.
실제 자연, 인간의 뇌를 모방한 기술들입니다.
성인을 구현하는 것이 아닌, 갓난 아이를 구현하여 스스로 학습하게 되는 알고리즘들입니다.
컴퓨터 하드웨어 속도가 지금보다 수십만배 빠르면 원 프로그램의 알고리즘이 정교하지 않아도 자연 선택 알고리즘을 이용하여 유의미한 알고리즘을 프로그램 스스로 발견할 수 있습니다.
진화론 반대하는 자들은 버럭하겠지만, 사실인 걸 어찌하겠습니까.
위의 이야기는 컴퓨터 프로그래밍 쪽 얘기고, 분자생물학 쪽에서는 분자를 배열하여 생물을 창조하는 실험을 하고 있습니다.

ifree의 이미지

말씀하신 인공신경망이나 유전자 알고리즘 등은 Hard AI 는 아니고, 이른바 Computational Intelligence 라고 하는 분야에 속하는 것들로서 특정한 과제에 대해 최적화된 결과를 도출하는 등의 부분적인 성과를 거두고 있기는 하지만 결국 기계적인 단순 계산의 산물이라는 점에서 인공지능 쪽하고는 조금 거리가 있습니다.
또한 인공지능에서 하드웨어의 속도가 중요하긴 하지만, 이와 관계없이 진정한 인공지능의 구현을 위한 소프트웨어 디자인이나 알고리즘 쪽은 실마리를 못찾고 있는 상황입니다. 하드웨어 속도와 용량만 높인다고 해결될 일이 아니라는 거죠.

본문에 언급된 프로젝트에서 조그마한 돌파구라도 나왔으면 좋겠네요.

익명 사용자의 이미지

인간의 뇌는 뉴런(신경)들로 망을 이루고 있습니다. 뉴런들의 상호작용으로 인하여 우리들이 생각을 하는 것입니다.
따라서, 인공신경망을 "기계적인 단순 계산의 산물"로 평가하기에는 인류는 뇌를 너무 모릅니다.
뇌과학(신경과학)에 힘입어 인공지능 또한 발전되고 있습니다.
그리고 천재적인 두뇌로 알고리즘을 고안해낼 수도 있겠지만, 무수한 실험을 통하여 시행착오 결과물로 알고리즘을 발견해 낼 수도 있습니다. 이 경우 하드웨어 속도는 무척 중요합니다.
인공신경망 돌려보면 엄청난 시간이 소모되고 뇌 fMRI 데이터는 너무 방대해서 하드웨어 속도는 필수입니다.
그리고 본문에 업급된 프로젝트는 개별 프로젝트들을 합한 것으로써 골격(프레임)을 구성하는 프로젝트입니다.

dymaxion의 이미지

인간 두뇌의 하드웨어 처리 속도는 무려 10Hz 라고 하더라고요.
그럼에도 고속(?) 응답이 가능한 이유는 뉴런들이 완전 조밀하게 연결되어 있어
하나의 거대한 병렬처리 효과를 가지기 때문이라는데..
하드웨어적으로 인간 두뇌의 신경망을 따라서 만든다면 처리속도 문제는 저절로 해결되어 버릴지도..
아 물론 현재의 폰노이만 컴퓨터에서 소프트웨어적으로 신경망을 시뮬레이션하면 역시나
처리속도 문제에 부딪히겠지만요.

======================================
Mechanical Engineer
DymaxionKim.github.io
======================================

익명 사용자의 이미지

인공신경망을 저평가하면서 우리들이 어렵다, 어렵다 외치고 있는 이 순간에도 누군가는 열심히들 연구하면서 결과물들이 나오고 있습니다.

아래 기사를 참고하시기 바랍니다.

----

[이달의 과학기술자상] 고성능·저전력 물체인식 프로세서 칩 개발
http://economy.hankooki.com/lpage/society/201012/e2010120816444493820.htm

컴퓨터에 `뇌의 知性`을 입혀라
http://www.hankyung.com/news/app/newsview.php?aid=2010042206341

10년 안에 인공두뇌 만들어진다?
슈퍼컴퓨터 이용해 3차원 신피질 모델 완성 코앞
http://www.sisapress.com/news/articleView.html?idxno=49744

----

거듭 얘기하지만, 컴퓨터 하드웨어 속도는 필수입니다.

dymaxion의 이미지

전에 KAIST의 인공지능 연구실의 데모를 본적이 있는데 후덜덜하더라고요.
필기체, 고문서 스캔본 인식이라던가 그런 것들을
베이지안 네트웍 기반으로 처리하는데
속도도 엄청나고 인식률 짱이고...
MS의 소프트웨어와 비교하는데 카이스트 것이 우월하더라고요.

그리고 하드웨어 속도가 중요한 건 맞습니다.
하지만 인간 두뇌의 하드웨어 속도는 느리다는 거죠....

아날로그 컴퓨터와 디지털 컴퓨터의 차이
폰노이만 아키텍쳐와 인간브레인 아키텍쳐의 차이
이런게 이유일 듯...

======================================
Mechanical Engineer
DymaxionKim.github.io
======================================

익명 사용자의 이미지

slee0303님이 말씀하기실, 인공신경망이 인공지능과 관련이 없다고 하는데.. 이게 트롤링이 아닌가요? 아예 computational intelligence를 artificial intelligence 와 완전 분리하여 생각하시는 것 같은데.

익명 사용자의 이미지

관련기사 하나 더 소개합니다.

美, 생각하는 인공 신경망 개발 성공
http://www.zdnet.co.kr/news/news_view.asp?artice_id=20110801144853

익명 사용자의 이미지

잘못된 것을 바로잡고자 댓글을 남깁니다. slee0303님이 인공신경망이 인공지능 쪽하고 거리가 있다고 하는데 그것은 사실이 아닙니다. 인공지능책에는 인공신경망을 다루고 있고 고차원적인 문제 해결에 인공신경망을 도입하고 있습니다.
강(strong) 인공지능의 부품으로써 인공신경망을 사용하는데 slee0303님은 단순히 계산적 지능(computational intelligence)라고 폄하하고 있습니다.
우리의 뇌에 있는 개개의 뉴런들은 단순한 계산기입니다. 이런 뉴런들이 상호작용하여 생각을 하게 되는 것입니다.
이를 컴퓨터로 모델링한 것이 인공신경망입니다.
현재 신경망칩 같은 것이 나오긴 나왔는데 이런 기반 위에서 인공신경망을 돌릴 수는 없습니다.
폰-노이만 구조의 컴퓨터에 신경망을 돌려야 하니까 하드웨어 속도가 무척 중요합니다.
IBM왓슨 사례만 보더라도 엄청난 물량이 투입되었습니다. 일반PC에서 돌리면 질문에 대한 답을 하는데 수시간이 걸린다고 하는군요.
slee0303님이 "진정한 인공지능의 구현을 위한 소프트웨어 디자인이나 알고리즘 쪽은 실마리를 못찾고 있는 상황"이라고 하셨는데, 그건 옛날 얘기입니다. 복잡도가 너무 높아서 인간이 성인 지능을 구현하는 것을 불가능하여고 여겨, 요새는 신경망으로 시도를 하고 있으며 괄목상대할 결과물이 나오고 있습니다.

PS. 그리고 slee님 Hard AI가 아니라 Strong AI입니다.

dymaxion의 이미지

현재까지의 신경망 알고리즘은
해를 찾아낼 때 발산 확률이 높은 등 아직 결함이 많다고 알고 있어요.
이론이 아직 완성된 상태가 아니기 때문이라고 알고 있구요...

베이지안 네트워크라는게 요즘 뜨고 있다는데, 구글 검색엔진 등에도 적용중이라고 하더군요.
확률론적인 접근방향이라고 하는데
위에 소개한 OpenCog에서도 그런 방향을 주력으로 삼는 것 아닌가 해요.
벤 고츨 박사가 최근에 '예지'라는 것이 가능하다고 언급했다는 소식이 있는데,
과거의 경험들로부터 미래에 일어날 높은 확률의 어떤 사건을 예측하는 것이 가능하다는 식의 이야기인 듯 하더라고요.
그걸 추론해내는 예지력을 베이지안 네트웍 기반으로 구현하려고 하는 걸로 생각되더라고요.

OpenCog의 경우에는 당연히 특별한 아날로그 컴퓨터 하드웨어를 개발해서 사용하는 건 아니고
일반적인 디지털 컴퓨터에서 C++ 기반으로 개발중이니 당연히 높은 컴퓨팅 리소스가 필요할 거라고 생각됩니다.

그리고... Strong AI 라는 용어는 제가 알기로는
커즈와일 박사라는 분이 제안한 용어로 알고 있는데 (신세사이저 악기 브랜드인 커즈와일의 그 커즈와일이 맞음)
벤 고츨 박사는 AI라고 하기엔 좀 그러니 새로운 용어를 제안해서 사용하고 있더군요.
AGI라고요. Artificial General Intelligent 라고 하던데
'General' 이라는 수식어를 'Strong' 대신 붙임으로써
기존의 특수기능에 국한된 전문가시스템이라던가 검색엔진이라던가 그런 것을 탈피해서
그냥 '어린이' 내지는 '강아지' 처럼 일반적인 지능 기계를 지향하는 듯 하더라고요.

======================================
Mechanical Engineer
DymaxionKim.github.io
======================================

ydhoney의 이미지

구글링+자가 성능평가+자가 프로그래밍+자가 컴파일+자가 복제를 통한 Multi System 증식 및 증식된 개체가 별도의 진화를 하고 별도의 진화 개체간의 커뮤니케이션을 통한 소스 참조 및 작동시 필요하면 협업 가능..

정도가 구현되는 프로그램을 만드는걸 하나의 꿈으로 생각하고 있긴 합니다만 ㅎㅎ 진화 방향은..무작위죠. 뭐가 될지 모르는..:-D

로봇 생산기지를 침입해서 로봇을 직접 생산해서 육체를 가지고 싶다고 하게 될지도 모르고, 누군가의 계좌에 침입해서 가능한한 모든 돈을 아작낼만큼 뭘 질러댈지도 모르고, 주식시장에 침입해서 주식거래를 하다가 뭔가 잘 못해서 패가망신하고난 어떤 프로그램은 한강에 갈지도 모르고..등등등..:-D 주민등록번호를 수집해서 팔아야겠다고 생각한 프로그램은 php 프로그램을 스스로 만들어 웹에 올리고 주민번호 떡밥을 던지고 있고..즐거움을 추구하는 녀석은 뭔가 흥미롭게 사람들을 끌어들일만한 웹사이트를 직접 개설하기도 하고..

익명 사용자의 이미지

누구 말이 진실인지는 영문 위키피디아 strong ai에 다 나와 있습니다.
-1점을 받아야할 사람은 따로 있는데... 왜 제가 -1점을 받아야 하는지 의아합니다.

http://en.wikipedia.org/wiki/Strong_AI

Strong AI
From Wikipedia, the free encyclopedia

For John Searle's Strong AI hypothesis, see Philosophy of artificial intelligence

Strong AI is artificial intelligence that matches or exceeds human intelligence — the intelligence of a machine that can successfully perform any intellectual task that a human being can.[1] It is a primary goal of artificial intelligence research and an important topic for science fiction writers and futurists. Strong AI is also referred to as "artificial general intelligence"[2] or as the ability to perform "general intelligent action".[3] Science fiction associates strong AI with such human traits as consciousness, sentience, sapience and self-awareness.

Some references emphasize a distinction between strong AI and "applied AI"[4] (also called "narrow AI"[1] or "weak AI"[5]): the use of software to study or accomplish specific problem solving or reasoning tasks that do not encompass (or in some cases are completely outside of) the full range of human cognitive abilities.
Contents
[hide]

1 Requirements
2 Mainstream AI research
2.1 History of mainstream research into strong AI
2.2 Current mainstream AI research
3 Artificial General Intelligence research
3.1 Whole brain emulation
3.1.1 Processing requirements
3.1.2 Complications
3.1.3 Modelling the neurons in more detail
3.2 Artificial consciousness research
4 Origin of the term: John Searle's strong AI
5 Possible explanations for the slow progress of AI research
6 See also
7 Notes
8 References
9 External links

[edit] Requirements
Main article: Cognitive science

Many different definitions of intelligence have been proposed (such as being able to pass the Turing test) but there is to date no definition that satisfies everyone.[6] However, there is wide agreement among artificial intelligence researchers that intelligence is required to do the following:[7]

reason, use strategy, solve puzzles, and make judgments under uncertainty;
represent knowledge, including commonsense knowledge;
plan;
learn;
communicate in natural language;
and integrate all these skills towards common goals.

Other important capabilities include the ability to sense (e.g. see) and the ability to act (e.g. move and manipulate objects) in the world where intelligent behaviour is to be observed.[8] This would include an ability to detect and respond to hazard.[9] Some sources consider "salience" (the capacity for recognising importance) as an important trait. Salience is thought to be part of how humans evaluate novelty so are likely to be important in some degree, but not necessarily at a human level.[citation needed] Many interdisciplinary approaches to intelligence (e.g. cognitive science, computational intelligence and decision making) tend to emphasise the need to consider additional traits such as imagination (taken as the ability to form mental images and concepts that were not programmed in)[10] and autonomy.[11] Computer based systems that exhibit many of these capabilities do exist (e.g. see computational creativity, decision support system, robot, evolutionary computation, intelligent agent), but not yet at human levels.

There are other aspects of the human mind besides intelligence that are relevant to the concept of strong AI which play a major role in science fiction and the ethics of artificial intelligence:

consciousness: To have subjective experience and thought.[12]
self-awareness: To be aware of oneself as a separate individual, especially to be aware of one's own thoughts.
sentience: The ability to "feel" perceptions or emotions subjectively.
sapience: The capacity for wisdom.

These traits have a moral dimension, because a machine with this form of strong AI may have legal rights, analogous to the rights of animals. Also, Bill Joy, among others, argues a machine with these traits may be a threat to human life or dignity.[13] It remains to be shown whether any of these traits are necessary for strong AI. The role of consciousness is not clear, and currently there is no agreed test for its presence. If a machine is built with a device that simulates the neural correlates of consciousness, would it automatically have self-awareness? It is also possible that some of these properties, such as sentience, naturally emerge from a fully intelligent machine, or that it becomes natural to ascribe these properties to machines once they begin to act in a way that is clearly intelligent. For example, intelligent action may be sufficient for sentience, rather than the other way around.
[edit] Mainstream AI research
[edit] History of mainstream research into strong AI
Main article: History of artificial intelligence

Modern AI research began in the mid 1950s.[14] The first generation of AI researchers were convinced that strong AI was possible and that it would exist in just a few decades. As AI pioneer Herbert Simon wrote in 1965: "machines will be capable, within twenty years, of doing any work a man can do."[15] Their predictions were the inspiration for Stanley Kubrick and Arthur C. Clarke's character HAL 9000, who accurately embodied what AI researchers believed they could create by the year 2001. Of note is the fact that AI pioneer Marvin Minsky was a consultant[16] on the project of making HAL 9000 as realistic as possible according to the consensus predictions of the time; Crevier quotes him as having said on the subject in 1967, "Within a generation...the problem of creating 'artificial intelligence' will substantially be solved,",[17] although Minsky states that he was misquoted[citation needed].

However, in the early 1970s, it became obvious that researchers had grossly underestimated the difficulty of the project. The agencies that funded AI became skeptical of strong AI and put researchers under increasing pressure to produce useful technology, or "applied AI".[18] As the 1980s began, Japan's fifth generation computer project revived interest in strong AI, setting out a ten year timeline that included strong AI goals like "carry on a casual conversation".[19] In response to this and the success of expert systems, both industry and government pumped money back into the field.[20] However, the market for AI spectacularly collapsed in the late 1980s and the goals of the fifth generation computer project were never fulfilled.[21] For the second time in 20 years, AI researchers who had predicted the imminent arrival of strong AI had been shown to be fundamentally mistaken about what they could accomplish. By the 1990s, AI researchers had gained a reputation for making promises they could not keep. AI researchers became reluctant to make any kind of prediction at all[22] and avoid any mention of "human level" artificial intelligence, for fear of being labeled a "wild-eyed dreamer."[23]
[edit] Current mainstream AI research
Main article: Artificial intelligence

In the 1990s and early 21st century, mainstream AI has achieved a far higher degree of commercial success and academic respectability by focusing on specific sub-problems where they can produce verifiable results and commercial applications, such as neural nets, computer vision or data mining.[24] These "applied AI" applications are now used extensively throughout the technology industry and research in this vein is very heavily funded in both academia and industry.

Most mainstream AI researchers hope that strong AI can be developed by combining the programs that solve various subproblems using an integrated agent architecture, cognitive architecture or subsumption architecture. Hans Moravec wrote in 1988 "I am confident that this bottom-up route to artificial intelligence will one day meet the traditional top-down route more than half way, ready to provide the real world competence and the commonsense knowledge that has been so frustratingly elusive in reasoning programs. Fully intelligent machines will result when the metaphorical golden spike is driven uniting the two efforts."[25]
[edit] Artificial General Intelligence research

Artificial General Intelligence[26] (AGI) describes research that aims to create machines capable of general intelligent action. The term was introduced by Mark Gubrud in 1997[27] in a discussion of the implications of fully automated military production and operations. The research objective is much older, for example Doug Lenat's Cyc project (that began in 1984), and Allen Newell's Soar project are regarded as within the scope of AGI. AGI research activity in 2006 was described by Pei Wang and Ben Goertzel[28] as "producing publications and preliminary results". As yet, most AI researchers have devoted little attention to AGI, with some claiming that intelligence is too complex to be completely replicated in the near term. However, a small number of computer scientists are active in AGI research, and many of this group are contributing to a series of AGI conferences. The research is extremely diverse and often pioneering in nature. In the introduction to his book,[26] Goertzel says that estimates of the time needed before a truly flexible AGI is built vary from 10 years to over a century, but the consensus in the AGI research community seems to be that the timeline discussed by Ray Kurzweil in "The Singularity is Near"[1] (i.e. between 2015 and 2045) is plausible.[29] Most mainstream AI researchers doubt that progress will be this rapid. Organizations actively pursuing AGI include Adaptive AI, Artificial General Intelligence Research Institute (AGIRI), the Singularity Institute for Artificial Intelligence, Bitphase AI, and TexAI.[30] One recent addition is Numenta, a project based on the theories of Jeff Hawkins, the creator of the Palm Pilot. While Numenta takes a computational approach to general intelligence, Hawkins is also the founder of the RedWood Neuroscience Institute, which explores conscious thought from a biological perspective. AND Corporation has been active in this field since 1990, and has developed machine intelligence processes based on phase coherence principles,[31] having strong similarities to digital holography and QM with respect to quantum collapse of the wave function. Ben Goertzel is pursuing an embodied AGI through the open-source OpenCog project. Current code includes embodied virtual pets capable of learning simple English-language commands, as well as integration with real-world robotics, being done at the robotics lab of Hugo de Garis at Xiamen University.
[edit] Whole brain emulation
Main article: Mind uploading

A popular approach discussed to achieving general intelligent action is whole brain emulation. A low-level brain model is built by scanning and mapping a biological brain in detail and copying its state into a computer system or another computational device. The computer runs a simulation model so faithful to the original that it will behave in essentially the same way as the original brain, or for all practical purposes, indistinguishably.[32] Whole brain emulation is discussed in computational neuroscience and neuroinformatics, in the context of brain simulation for medical research purposes. It is discussed in artificial intelligence research[29] as an approach to strong AI. Neuroimaging technologies, that could deliver the necessary detailed understanding, are improving rapidly, and futurist Ray Kurzweil in the book "The Singularity Is Near"[1] predicts that a map of sufficient quality will become available on a similar timescale to the required computing power.
[edit] Processing requirements
Futurist Ray Kurzweil's projected supercomputer processing power

For low-level brain simulation, an extremely powerful computer would be required. The human brain has a huge number of synapses. Each of the 1011 (one hundred billion) neurons has on average 7,000 synaptic connections to other neurons. It has been estimated that the brain of a three-year-old child has about 1015 synapses (1 quadrillion). This number declines with age, stabilizing by adulthood. Estimates vary for an adult, ranging from 1014 to 5 x 1014 synapses (100 to 500 trillion).[33] An estimate of the brain's processing power, based on a simple switch model for neuron activity, is around 1014 (100 trillion) neuron updates per second.[34] Kurzweil looks at various estimates for the hardware required to equal the human brain and adopts a figure of 1016 computations per second (cps).[35] He uses this figure to predict the necessary hardware will be available sometime between 2015 and 2025, if the current exponential growth in computer power continues.
[edit] Complications

The predictions outlined above are by no means guaranteed.

A key fundamental criticism of the simulated brain approach derives from embodied cognition where human embodiment is taken as an essential aspect of human intelligence. Many researchers believe that embodiment is necessary to ground meaning.[36] If this view is correct, any fully functional brain model will need to encompass more than just the neurons (i.e., a robotic body). Goertzel[29] proposes virtual embodiment (like Second Life), but it is not yet known whether this would be sufficient.

Desktop computers using 2 GHz Intel Pentium microprocessors and capable of more than 109 cps have been available since 2005. According to the brain power estimates used by Kurzweil (and Moravec) this computer should be capable of supporting a simulation of a bee brain, but despite some interest[37] no such simulation exists[citation needed]. There are at least three reasons for this.

Firstly the neuron model seems to be oversimplified (see next section).
Secondly there is insufficient understanding of higher cognitive processes[38] to establish accurately what the neural activity observed using techniques such as functional magnetic resonance imaging correlates with.
Thirdly, even if our understanding of cognition advances sufficiently, early simulation programs are likely to be very inefficient and will therefore need considerably more hardware.

In addition, the scale of the human brain is not currently well constrained. One estimate puts the human brain at about 100 billion neurons and 100 trillion synapses.[39][40] Another estimate is 86 billion neurons of which 16.3 billion are in the cerebral cortex and 69 billion in the cerebellum.[41] Glial cell synapses are currently unquantified but are known to be extremely numerous.
[edit] Modelling the neurons in more detail

The artificial neuron model assumed by Kurzweil and used in many current artificial neural network implementations is simple compared with biological neurons. A brain simulation would likely have to capture the detailed cellular behaviour of biological neurons, presently only understood in the broadest of outlines. The overhead introduced by full modeling of the biological, chemical, and physical details of neural behaviour (especially on a molecular scale) would require a computer several orders of magnitude larger than Kurzweil's estimate. In addition the estimates do not account for Glial cells which are at least as numerous as neurons, may outnumber neurons by as much as 10:1, and are now known[citation needed] to play a role in cognitive processes.

There are some research projects that are investigating brain simulation using more sophisticated neural models, implemented on conventional computing architectures. The Artificial Intelligence System project implemented non-real time simulations of a "brain" (with 1011 neurons) in 2005. It took 50 days on a cluster of 27 processors to simulate 1 second of a model.[42] The Blue Brain project used one of the fastest supercomputer architectures in the world, IBM's Blue Gene platform, to create a real time simulation of a single rat neocortical column consisting of approximately 10,000 neurons and 108 synapses in 2006.[43] A longer term goal is to build a detailed, functional simulation of the physiological processes in the human brain: "It is not impossible to build a human brain and we can do it in 10 years," Henry Markram, director of the Blue Brain Project said in 2009 at the TED conference in Oxford.[44] There have also been controversial claims to have simulated a cat brain. Neuro-silicon interfaces have been proposed as an alternative implementation strategy that may scale better.[45]

Moravec addressed the above arguments ("brains are more complicated", "neurons have to be modeled in more detail") in his 1997 paper.[46] He measured the ability of existing software to simulate the functionality of neural tissue, specifically the retina. His results do not depend on the number of glial cells, nor on what kinds of processing neurons perform where.
[edit] Artificial consciousness research
Main article: Artificial consciousness

Although the role of consciousness in strong AI/AGI is debatable, many AGI researchers[47] regard research that investigates possibilities for implementing consciousness as vital. In an early effort Igor Aleksander[48] argued that the principles for creating a conscious machine already existed but that it would take forty years to train such a machine to understand language.
[edit] Origin of the term: John Searle's strong AI
See also: philosophy of artificial intelligence and Chinese room

The term "strong AI" was adopted from the name of a position in the philosophy of artificial intelligence first identified by John Searle as part of his Chinese room argument in 1980.[49] He wanted to distinguish between two different hypotheses about artificial intelligence:[50]

An artificial intelligence system can think and have a mind. (The word "mind" has a specific meaning for philosophers, as used in "the mind body problem" or "the philosophy of mind".)
An artificial intelligence system can (only) act like it thinks and has a mind.

The first one is called "the strong AI hypothesis" and the second is "the weak AI hypothesis" because the first one makes the stronger statement: it assumes something special has happened to the machine that goes beyond all its abilities that we can test. Searle referred to the "strong AI hypothesis" as "strong AI". This usage, which is fundamentally different than the subject of this article, is common in academic AI research and textbooks.[51]

The term "strong AI" is now used to describe any artificial intelligence system that acts like it has a mind,[1] regardless of whether a philosopher would be able to determine if it actually has a mind or not. As Russell and Norvig write: "Most AI researchers take the weak AI hypothesis for granted, and don't care about the strong AI hypothesis."[52] AI researchers are interested in a related statement:

An artificial intelligence system can think (or act like it thinks) as well as or better than people do.

This assertion, which hinges on the breadth and power of machine intelligence, is the subject of this article.
[edit] Possible explanations for the slow progress of AI research

See also The problems (in History of AI)

Since the launch of AI research in 1956, the growth of this field has slowed down over time and has stalled the aims of creating machines skilled with intelligent action at the human level.[53] A possible explanation for this delay is that computers lack a sufficient scope of memory or processing power.[53] In addition, the level of complexity that connects to the process of AI research may also limit the progress of AI research.[53]

While most AI researchers believe that strong AI can be achieved in the future, there are some individuals like Hubert Dreyfus and Roger Penrose that deny the possibility of achieving AI.[53] John McCarthy was one of various computer scientists who believe human-level AI will be accomplished, but a date cannot accurately be predicted.[54]

Conceptual limitations are another possible reason for the slowness in AI research.[53] AI researchers may need to modify the conceptual framework of their discipline in order to provide a stronger base and contribution to the quest of achieving strong AI. As William Clocksin wrote in 2003: "the framework starts from Weizenbaum’s observation that intelligence manifests itself only relative to specific social and cultural contexts".[53]

Furthermore, AI researchers have been able to create computers that can perform jobs that are complicated for people to do, but conversely they have struggled to develop a computer that is capable of carrying out tasks that are simple for humans to do.[53] A problem that is described by David Galernter is that some people assume that thinking and reasoning mean the same definition.[55] However, the idea of whether thoughts and the creator of those thoughts are isolated individually has intrigued AI researchers.[55]

The problems that have been encountered in AI research over the past decades have further impeded the progress of AI. The failed predictions that have been promised by AI researchers and the lack of a complete understanding of human behaviors have helped diminish the primary idea of human-level AI.[29] Although the progress of AI research has brought both improvement and disappointment, most investigators have established optimism about potentially achieving the goal of AI in the 21st century.[29]

Other possible reasons have been proposed for the lengthy research in the progress of strong AI. The intricacy of scientific problems and the need to fully understand the human brain through psychology and neurophysiology have limited many researchers from emulating the function of the human brain into a computer hardware.[56] Many researchers tend to underestimate any doubt that is involved with future predictions of AI, but without taking those issues seriously can people then overlook solutions to problematic questions.[29]

Clocksin says that a conceptual limitation that may impede the progress of AI research is that people may be using the wrong techniques for computer programs and implementation of equipment.[53] When AI researchers first began to aim for the goal of artificial intelligence, a main interest was human reasoning.[57] Researchers hoped to establish computational models of human knowledge through reasoning and to find out how to design a computer with a specific cognitive task.[57]

The practice of abstraction, which people tend to redefine when working with a particular context in research, provides researchers with a concentration on just a few concepts.[57] The most productive use of abstraction in AI research comes from planning and problem solving.[57] Although the aim is to increase the speed of a computation, the role of abstraction has posed questions about the involvement of abstraction operators.[58]

A possible reason for the slowness in AI relates to the acknowledgement by many AI researchers that heuristics is a section that contains a significant breach between computer performance and human performance.[56] The specific functions that are programmed to a computer may be able to account for many of the requirements that allow it to match human intelligence. These explanations are not necessarily guaranteed to be the fundamental causes for the delay in achieving strong AI, but they are widely agreed by numerous researchers.

There have been many AI researchers that debate over the idea whether machines should be created with emotions. There are no emotions in typical models of AI and some researchers say programming emotions into machines allows them to have a mind of their own.[53] Emotion sums up the experiences of humans because it allows them to remember those experiences.[55]

As David Gelernter writes, “No computer will be creative unless it can simulate all the nuances of human emotion.”[55] This concern about emotion has posed problems for AI researchers and it connects to the concept of strong AI as its research progresses into the future.
[edit] See also

History of artificial intelligence
Marcus Hutter's Universal Artificial Intelligence
Technological singularity aka "The Singularity"
Singularity Institute for Artificial Intelligence
Artificial General Intelligence Research Institute
Friendly AI
Ethics of artificial intelligence
Whole brain emulation (Mind uploading)
Artificial Intelligence System A distributed computing attempt to simulate the brain via neural networking
AI-complete
Synthetic intelligence

[edit] Notes

^ a b c d e (Kurzweil 2005, p. 260) or see Advanced Human Intelligence where he defines strong AI as "machine intelligence with the full range of human intelligence."
^ Voss 2006.
^ Newell & Simon 1976. This the term they use for "human-level" intelligence in the physical symbol system hypothesis.
^ Encyclopædia Britannica Strong AI, applied AI, and cognitive simulation or Jack Copeland What is artificial intelligence? on AlanTuring.net
^ The Open University on Strong and Weak AI
^ AI founder John McCarthy writes: "we cannot yet characterize in general what kinds of computational procedures we want to call intelligent." McCarthy, John (2007). "Basic Questions". Stanford University. (For a discussion of some definitions of intelligence used by artificial intelligence researchers, see philosophy of artificial intelligence.)
^ This list of intelligent traits is based on the topics covered by major AI textbooks, including: Russell & Norvig 2003, Luger & Stubblefield 2004, Poole, Mackworth & Goebel 1998 and Nilsson 1998.
^ Pfeifer, R. and Bongard J. C., How the body shapes the way we think: a new view of intelligence (The MIT Press, 2007). ISBN 0-262-16239-3
^ White, R. W. (1959). Motivation reconsidered: The concept of competence. Psychological Review, 66, 297-333
^ Johnson 1987
^ deCharms, R. (1968). Personal causation. New York: Academic Press.
^ Note that consciousness is difficult to define. A popular definition, due to Thomas Nagel, is that it "feels like" something to be conscious. If we are not conscious, then it doesn't feel like anything. Nagel uses the example of a bat: we can sensibly ask "what does it feel like to be a bat?" However, we are unlikely to ask "what does it feel like to be a toaster?" Nagel concludes that a bat appears to be conscious (i.e. has consciousness) but a toaster does not. See (Nagel 1974)
^ Joy, Bill (April 2000). "Why the future doesn't need us". Wired.
^ Crevier 1993, pp. 48–50
^ Simon 1965, p. 96 quoted in Crevier 1993, p. 109
^ Scientist on the Set: An Interview with Marvin Minsky
^ Marvin Minsky to Darrach (1970), quoted in Crevier (1993, p. 109).
^ The Lighthill report specifically criticized AI's "grandiose objectives" and led the dismantling of AI research in England. (Lighthill 1973; Howe 1994) In the U.S., DARPA became determined to fund only "mission-oriented direct research, rather than basic undirected research". See (NRC 1999) under "Shift to Applied Research Increases Investment". See also (Crevier 1993, pp. 115–117) and (Russell & Norvig 2003, pp. 21–22)
^ Crevier 1993, pp. 211, Russell & Norvig 2003, p. 24 and see also Feigenbaum & McCorduck 1983
^ Crevier 1993, pp. 161–162,197–203,240; Russell & Norvig 2003, p. 25; NRC 1999, under "Shift to Applied Research Increases Investment"
^ Crevier 1993, pp. 209–212
^ As AI founder John McCarthy writes "it would be a great relief to the rest of the workers in AI if the inventors of new general formalisms would express their hopes in a more guarded form than has sometimes been the case." McCarthy, John (2000). "Reply to Lighthill". Stanford University.
^ "At its low point, some computer scientists and software engineers avoided the term artificial intelligence for fear of being viewed as wild-eyed dreamers."Markoff, John (2005-10-14). "Behind Artificial Intelligence, a Squadron of Bright Real People". The New York Times. Retrieved 2007-07-30.
^ Russell & Norvig 2003, pp. 25–26
^ Moravec 1988, p. 20
^ a b Goertzel & Pennachin 2006.
^ Gubrud 1997
^ Goertzel & Wang 2006. See also Wang (2006) with an up to date summary and lots of links.
^ a b c d e f Goertzel 2007.
^ The TexAI website
^ Sutherland 1990.
^ Sanders 2008[citation not found]. "The basic idea is to take a particular brain, scan its structure in detail, and construct a software model of it that is so faithful to the original that, when run on appropriate hardware, it will behave in essentially the same way as the original brain."
^ Drachman 2005.
^ Russell & Norvig 2003.
^ In "Mind Children" Moravec 1988, p. 61 1015 cps is used. More recently, in 1997, (see http://www.transhumanist.com/volume1/moravec.htm) Moravec argued for 108 MIPS which would roughly correspond to 1014 cps. Moravec talks in terms of MIPS, not "cps", which is a non-standard term Kurzweil introduced.
^ de Vega, Glenberg & Graesser 2008. A wide range of views in current research, all of which require grounding to some degree
^ some links to bee brain studies
^ In this chapter of Goertzels AGI book Yudkowsky proposes 5 levels of organisation that must be understood - code/data, sensory modality, concept & category, thought and deliberation (consciousness) - in order to use the available hardware
^ Williams & Herrup 1988[citation not found]
^ "nervous system, human." Encyclopædia Britannica. 9 Jan. 2007
^ Azevedo et al. 2009.
^ large scale model of brain
^ "Project Milestones". Blue Brain. Retrieved 2008-08-11.
^ Artificial brain '10 years away' 2009 BBC news
^ University of Calgary news, MSNBC news
^ http://cseweb.ucsd.edu/~gill/SynIntSite/Resources/MoravecHumBrn.pdf[dead link]
^ Yudkowsky 2006.
^ Aleksander 1996.
^ Searle 1980
^ As defined in a standard AI textbook: "The assertion that machines could possibly act intelligently (or, perhaps better, act as if they were intelligent) is called the 'weak AI' hypothesis by philosophers, and the assertion that machines that do so are actually thinking (as opposed to simulating thinking) is called the 'strong AI' hypothesis." (Russell & Norvig 2003)
^ Among the many sources that use the term in this way are:
Russell & Norvig 2003,
Oxford University Press Dictionary of Psychology (quoted in "High Beam Encyclopedia"),
MIT Encyclopedia of Cognitive Science (quoted in "AITopics")
Planet Math
Arguments against Strong AI (Raymond J. Mooney, University of Texas),
Artificial Intelligence (Rob Kremer, University of Calgary),
Minds, Math, and Machines: Penrose's thesis on consciousness (Rob Craigen, University of Manitoba),
The Science and Philosophy of Consciousness Alex Green,
Philosophy & AI Bernard,
Will Biological Computers Enable Artificially Intelligent Machines to Become Persons? Anthony Tongen,
Usenet FAQ on Strong AI
^ Russell & Norvig 2003, p. 947.
^ a b c d e f g h i Clocksin 2003.
^ McCarthy 2003.
^ a b c d Gelernter 2010.
^ a b McCarthy 2007.
^ a b c d Holte & Choueiry 2003.
^ Zucker 2003.

[edit] References

TechCast Article Series, Prof. William Halal, Automation of Thought
Aleksander, Igor (1996), Impossible Minds, World Scientific Publishing Company isbn=978-1860940361
Anders, Sandberg; Nick, Boström (2008), Whole Brain Emulation: A Roadmap, Technical Report #2008‐3, Future of Humanity Institute, Oxford University, retrieved 5 April 2009
Azevedo FA, Carvalho LR, Grinberg LT, et al. (April 2009), "Equal numbers of neuronal and nonneuronal cells make the human brain an isometrically scaled-up primate brain", The Journal of Comparative Neurology 513 (5): 532–41, doi:10.1002/cne.21974, PMID 19226510
Chalmers, David (1996), The Conscious Mind, Oxford University Press.
Clocksin, William (Aug 2003), "Artificial intelligence and the future", Philosophical Transactions: Mathematical, Physical and Engineering Sciences 361 (1809): 1721–1748, doi:10.1098/rsta.2003.1232, PMID 12952683.
Crevier, Daniel (1993), AI: The Tumultuous Search for Artificial Intelligence, New York, NY: BasicBooks, ISBN 0-465-02997-3
Darrach, Brad (20 November 1970), "Meet Shakey, the First Electronic Person", Life Magazine: 58−68.
Drachman, D (2005), "Do we have brain to spare?", Neurology 64 (12): 2004–5, doi:10.1212/01.WNL.0000166914.38327.BB, PMID 15985565.
Feigenbaum, Edward A.; McCorduck, Pamela (1983), The Fifth Generation: Artificial Intelligence and Japan's Computer Challenge to the World, Michael Joseph, ISBN 0-7181-2401-4
Gelernter, David (2010), Dream-logic, the Internet and Artificial Thought
Goertzel, Ben; Pennachin, Cassio, eds. (2006), Artificial General Intelligence, Springer, ISBN 3-540-23733-X
Goertzel, Ben; Wang, Pei (2006), Introduction: Aspects of Artificial General Intelligence
Goertzel, Ben (Dec 2007), "Human-level artificial general intelligence and the possibility of a technological singularity: a reaction to Ray Kurzweil's The Singularity Is Near, and McDermott's critique of Kurzweil", Artificial Intelligence 171 (18, Special Review Issue): 1161–1173, doi:10.1016/j.artint.2007.10.011, retrieved 1 April 2009.
Gubrud, Mark (November 1997), "Nanotechnology and International Security", Fifth Foresight Conference on Molecular Nanotechnology

Holte, RC; Choueiry, BY (2003), "Abstraction and reformulation in artificial intelligence", Philosophical Transactions: Biological Sciences 358 (1435): 1197–1204, doi:10.1098/rstb.2003.1317, PMC 1693218, PMID 12903653.
Howe, J. (November 1994), Artificial Intelligence at Edinburgh University : a Perspective
Johnson, Mark (1987), The body in the mind, Chicago, ISBN 0226403173
Kurzweil, Ray (2005), The Singularity is Near, Viking Press
Lighthill, Professor Sir James (1973), "Artificial Intelligence: A General Survey", Artificial Intelligence: a paper symposium, Science Research Council
Luger, George; Stubblefield, William (2004), Artificial Intelligence: Structures and Strategies for Complex Problem Solving (5th ed.), The Benjamin/Cummings Publishing Company, Inc., pp. 720, ISBN 0-8053-4780-1
McCarthy, John (Oct 2007), "From here to human-level AI", Artificial Intelligence 171 (18): 1174–1182, doi:10.1016/j.artint.2007.10.009.
McCorduck, Pamela (2004), Machines Who Think (2nd ed.), Natick, MA: A. K. Peters, Ltd., ISBN 1-56881-205-1
Moravec, Hans (1976), The Role of Raw Power in Intelligence
Moravec, Hans (1988), Mind Children, Harvard University Press
Nagel (1974), "What Is it Like to Be a Bat", Philosophical Review: 435–50..
Newell, Allen; Simon, H. A. (1963), "GPS: A Program that Simulates Human Thought", in Feigenbaum, E.A.; Feldman, J., Computers and Thought, New York: McGraw-Hill
Newell, Allen; Simon, H. A. (1976), Computer Science as Empirical Inquiry: Symbols and Search, "Communications of the ACM", Communications of the ACM 19 (3): 113–126, doi:10.1145/360018.360022
Nilsson, Nils (1998), Artificial Intelligence: A New Synthesis, Morgan Kaufmann Publishers, ISBN 978-1-55860-467-4
Russell, Stuart J.; Norvig, Peter (2003), Artificial Intelligence: A Modern Approach (2nd ed.), Upper Saddle River, New Jersey: Prentice Hall, ISBN 0-13-790395-2
NRC (1999), "Developments in Artificial Intelligence", Funding a Revolution: Government Support for Computing Research, National Academy Press, retrieved 30 August 2007
Poole, David; Mackworth, Alan; Goebel, Randy (1998), Computational Intelligence: A Logical Approach, New York: Oxford University Press
Searle, John (1980), "Minds, Brains and Programs", Behavioral and Brain Sciences 3 (3): 417–457, doi:10.1017/S0140525X00005756
Simon, H. A. (1965), The Shape of Automation for Men and Management, New York: Harper & Row
Sutherland, J.G. (1990), "Holographic Model of Memory, Learning, and Expression", International Journal of Neural Systems 1-3: 256–267.
Williams RW, Herrup K (1988), "The control of neuron number", Annual Review of Neuroscience 11: 423–53, doi:10.1146/annurev.ne.11.030188.002231, PMID 3284447.
de Vega, Manuel; Glenberg, Arthur; Graesser, Arthur, eds. (2008), Symbols and Embodiment: Debates on meaning and cognition, Oxford University Press, ISBN 0199217270
Voss, Peter (2006), Goertzel, Ben; Pennachin, Cassio, eds., Essentials of general intelligence Artificial General Intelligence, Springer, doi:10.1146/annurev.psych.49.1.585;jsessionid=o4K4TVe3OdBd, ISBN 3-540-23733-X
Wang, Pei (2006), website Artificial General Intelligence : A Gentle Introduction
Yudkowsky, Eliezer (2006), Goertzel, Ben; Pennachin, Cassio, eds., Artificial General Intelligence, Springer, doi:10.1146/annurev.psych.49.1.585;jsessionid=o4K4TVe3OdBd, ISBN 3-540-23733-X
Zucker, Jean-Daniel (July 2003), "A grounded theory of abstraction in artificial intelligence", Philosophical Transactions: Biological Sciences 358 (1435): 1293–1309, doi:10.1098/rstb.2003.1308, PMC 1693211, PMID 12903672.

[edit] External links

The AGI portal maintained by Pei Wang
GPAI Project A Mass Collaboration for Strong AI
AND Corporation - a neuromorphic model based on holographic neural processing
Expanding Frontiers of Humanoid Robots
AI lectures from Tokyo hosted by Rolf Pfeifer
Artificial General Intelligence Research Institute
The Genesis Group at MIT's CSAIL — Modern research on the computations that underlay human intelligence
Essentials of general intelligence, article at Adaptive AI.
OpenCog - open source project to develop a human-level AI
Wiki of the Artificial General Intelligence Research Institute
Problems with Thinking Robots
www.eng.warwick.ac.uk
Simulating logical human thought
Texai, An open source project to create artificial intelligence
The Game of Intelligent Design, An online game that promotes the development of artificial general intelligence
The Practical Strong AI Project, A Practical approach and strategy for strong AI.

DarkSide의 이미지

제대로 읽어는 보셨는지.

익명 사용자의 이미지

안 읽어 보셨으면 한번 읽어보세요.

http://en.wikipedia.org/wiki/Strong_AI

Whole brain emulation
Main article: Mind uploading

A popular approach discussed to achieving general intelligent action is whole brain emulation. A low-level brain model is built by scanning and mapping a biological brain in detail and copying its state into a computer system or another computational device. The computer runs a simulation model so faithful to the original that it will behave in essentially the same way as the original brain, or for all practical purposes, indistinguishably.[32] Whole brain emulation is discussed in computational neuroscience and neuroinformatics, in the context of brain simulation for medical research purposes. It is discussed in artificial intelligence research[29] as an approach to strong AI. Neuroimaging technologies, that could deliver the necessary detailed understanding, are improving rapidly, and futurist Ray Kurzweil in the book "The Singularity Is Near"[1] predicts that a map of sufficient quality will become available on a similar timescale to the required computing power.

Processing requirements

For low-level brain simulation, an extremely powerful computer would be required. The human brain has a huge number of synapses. Each of the 1011 (one hundred billion) neurons has on average 7,000 synaptic connections to other neurons. It has been estimated that the brain of a three-year-old child has about 1015 synapses (1 quadrillion). This number declines with age, stabilizing by adulthood. Estimates vary for an adult, ranging from 1014 to 5 x 1014 synapses (100 to 500 trillion).[33] An estimate of the brain's processing power, based on a simple switch model for neuron activity, is around 1014 (100 trillion) neuron updates per second.[34] Kurzweil looks at various estimates for the hardware required to equal the human brain and adopts a figure of 1016 computations per second (cps).[35] He uses this figure to predict the necessary hardware will be available sometime between 2015 and 2025, if the current exponential growth in computer power continues.

snowall의 이미지

그래서, 하고싶은 말이 뭔가요?

strong AI에 관해서 뭐가 어떻든, 그건 당신의 주장이 사실이라고 인정할 수도 있는데, 그게 사실이라는 것 이외에는 별다른 의견이 없어보입니다.

피할 수 있을때 즐겨라! http://melotopia.net/b

dymaxion의 이미지


http://www.scientificamerican.com/article.cfm?id=computers-vs-brains

인터넷
용량: 100경 바이트

가장 빠른 슈퍼컴퓨터
용량: 3경 바이트
계산 속도: 82억 메가플롭스
에너지 소모량: 9백9십만 와트

인간 뇌
용량: 3천5백조 바이트
계산 속도: 22억 메가플롭스
에너지 소모량: 20 와트

iPad2
용량: 6백4십억 바이트
계산 속도: 170 메가플롭스
에너지 소모량: 2.5와트

고양이 뇌
용량: 98조 바이트
계산 속도: 6천1백만 메가플롭스

인간 게놈
용량: 7억 5천만 바이트

이렇게 비교해 놨네요...
인간 뇌가 20와트 에너지로 저런 엄청난 능력을 발휘한다는게 정말 대단합니다.

* 추신 : 익명사용자께서 댓글 남기신 것은 정확한 지식을 전해 주셔서 감사합니다만, 아무래도 제가 보기에는 말투가 좀 공격적으로 느껴지기 때문에 다른 사람들이 거부감을 표현한 것 아닌가 추측됩니다.

======================================
Mechanical Engineer
DymaxionKim.github.io
======================================

익명 사용자의 이미지

제가 처음부터 공격적으로 글을 쓰지는 않았습니다.

첫번째 댓글을 보더라고 -1 쓸모없음 평가를 받을 이유는 없죠.
실제로 강한 인공지능이 연구되고 있다는 것에 대한 논거거든요.

slee0303님이 잘못된 사실을 주장하고 있는데... 단도직입적으로 말하지 않고 그냥 추측성으로 말씀하셨으면 제가 거기에 댓글을 달을 이유도 없습니다.
이런 글들이 -1점을 받아야 되는거죠.

그 아래에 제가 반론을 달았습니다. 그게 -1 논점이탈이라는군요. 어이가 없습니다.

그래서 제가 "인공신경망을 저평가하면서 우리들이 어렵다, 어렵다 외치고 있는 이 순간에도 누군가는 열심히들 연구하면서 결과물들이 나오고 있습니다." 이런 댓글을 달았는데... -1점 트롤링 평가를 받았습니다. 이 댓글은 공격적인 댓글이 아닙니다. 이 글에 기분이 나쁘신분들이 있다면 그 분들 자질 문제입니다. 사실 트롤링은 slee0303님이 먼저 하신거죠.

요새 뇌과학의 발전으로 인공지능이 새로운 전기를 맞았습니다.
아무리 인공지능이 어려워도 컴퓨터 하드웨어가 발전해가므로 언젠가는 정복되는 분야입니다.
직접 구현하는 방법은 복잡도가 너무 높아 다들 회의적으로 생각하여 신경망으로 접근하고 있습니다. 인간이 알고리즘(주로 신경망 학습 알고리즘)을 고안해 낼 수 없다면 컴퓨터로 뇌를 시뮬레이션하거나 결과물 획득 시간을 줄이기 위해 유전자,DNA,진화 프로그래밍으로 자연 선택하는 방식으로 나아갈 수도 있습니다.
그렇게 때문에 하드웨어 속도가 필수입니다. 아래 링크에도 나옵니다.

인공지능에 좀 관심있는 사람이라면 http://en.wikipedia.org/wiki/Strong_AI 라는 것을 읽어봤을만도 한데 모르면서 신경망을 폄하하는 것은 정말 대화의 기본이 되어 있지 않다고 봅니다.

괜히 주말에 댓글 남겼다가 트롤로 몰리고 기분만 상하고 갑니다.

dymaxion의 이미지

kldp 관리자님이 신경을 써서 댓글평점으로 관리되는 시스템을 꾸미신 듯 한데
사실 어떤 글이 -1점을 받아서 블라인드 되어 버리면 기분이 좋지 않을 거라 생각합니다.
하지만 조금 물러서서
아 뭐 누가 나한테 -1점을 줬네 이건 뭐람... 하고 그냥 지나칠 수도 있고
또는 서로 논쟁적으로 날카로워져서 다투게 될 수도 있습니다.

다만 저는
아 다르고 어 다르다는 속담이 있는 것 처럼,
아무리 좋은 글이라도 조금 더 상대를 배려해서 다듬어 준다면
분위기가 더 좋아질 거라고 생각해요.

저도 댓글을 달거나 할 때 몇 번 정도 -1점을 받은 일이 있는 듯 한데
그냥 지나치거든요.
사실 뭐 중요한 일도 아니고요.

======================================
Mechanical Engineer
DymaxionKim.github.io
======================================

klutzy의 이미지

첫 댓글에 +1 줬던 사람입니다. (지금 보니 다시 마이너스가 되어 있군요.) 처음의 논거는 꽤 적절하고 저도 왜 마이너스 받아야 하는지 의아했는데, 뒤로 갈수록 논점이탈/공격적이 되어 간 것도 맞습니다. 물론 기분이 상하셔서 그럴 수도 있는데 제 생각은 kldp에서 답글 필터링이 도입된 지 얼마 되지 않았고 저를 포함한 기존 방문자들은 익명 덧글과 트롤링간의 상관관계에 대해 학습이 되어 있기 때문에 어쩔 수 없는 것 같습니다.

저는 애초에 '강한 인공지능'의 목표 자체가 불분명하기 때문에 오해들이 발생하는 것 같습니다. Strong AI의 목표는 무엇일까요? 사람처럼 행동하는 것? 그렇다고 해서 우리는 덧셈 계산을 가끔 실수하는 프로그램을 원하지는 않을 겁니다. 사람의 뇌를 모델로 하는 것? 말씀하셨듯이 뉴럴넷이 이미 있고 아직도 연구되고 있습니다. 하지만 사람의 뇌는 여러 개의 모듈로 이루어져 있다는 것 역시 알려져 있는 사실이고요. (가령 물체 인식과 얼굴 인식은 별도의 모듈로 발달되어 있기 때문에 사람 얼굴만 못알아보는 뇌질환이 존재합니다.) 애초에 Strong AI라는 말은 John Searle이 '컴퓨터는 자신이 다루는 대상의 의미를 모르면서 계산할 뿐이다'(중국어 방 논증)라고 하면서 '의미를 아는 프로그램'을 '그냥 프로그램'과 분리한 용어입니다. 하지만 사람 또한 뉴런 레벨에서 '사과'나 '바나나'를 이해하지는 않을 거고요. Strong AI를 어떻게 쓸지에 대해서조차도 의견이 분분합니다. 가령 이 스레드에서 소개된 OpenCog의 경우도 Singularity Institute의 지원을 받았다가 이후 서로의 방향이 맞지 않아 지원이 끊겼습니다. The Singularity Institute's Scary Idea (and Why I Don't Buy It) 목적이 모호하니 서로의 연구결과가 공유되지 않고요.

OpenCog 이야기를 좀 더 해보겠습니다. 위키백과의 OpenCog를 보면 유전 프로그래밍(!)을 쓰고 있습니다. 논리 추론을 위해 Probabilistic Logic Network라는 걸 씁니다(OpenCog에서 직접 만든 거라는데 저는 이게 기존의 probabilistic logic inference 모델들과 어떻게 다른지 모르겠습니다). 논리 추론 역시 고전적인 AI에서부터 계속해서 다루어지는 주제입니다. (사실 논리 추론은 '인간처럼 행동하는' 것과 거리가 멉니다. 인간은 논리적이지 않기 때문입니다.) 이쯤 되면 저는 OpenCog의 '목표'를 모르겠습니다. 이들이 시도하려는 것과 사용하는 기반은 대부분 기존의 학계에서 잘 다루고 있던 것입니다. 물론 새로운 목표가 있을텐데 그건 단순히 'Strong AI'나 'Artificial General Intelligence'라는 말로 뭉뚱그려 표현하기에는 모호합니다. 그걸 알기 전까지는 이들이 하려는 게 얼마나 새로운지, 얼마나 대단한지 판단을 유보하려고 합니다. 이들의 목표와 연구 결과는 여기에 나와 있습니다. 관심있는 분들은 참고하시면 좋겠습니다.

dymaxion의 이미지


제가 OpenCog에 대해서 알고 나서 조금 조사해 보고 소개글을 써 본 목적은 아래와 같습니다.

(1) 얼마전에 kldp에서 'Siri를 만들수 없는 나라'라는 조금 자조적인 글이 있었는데,
이노베이션을 끊임없이 해 나가는 미국 실리콘밸리의 R&D 생태계를 부러워하는 마음은 누구나 다 있을 거라고 생각했습니다.
최소한 한국에서는 이런 기술적 첨단을 다투는 트랜드에서 뒤떨어져서는 안되겠다는 생각이 들더라고요.

(2) 도전적인 연구 과제에 대한 패배주의가 만연해 있다고 느낍니다.
휴머노이드 휴보를 만들었던 카이스트의 오박사님의 경우에도
강연을 들어보니 그걸 지원해주는 곳이 전혀 없어서, 자기 연구실 운영비를 쪼개서 시작했더라고요.
그분도 사실 따지고보면 '목적'이 모호합니다. 두발로 걷고 뛰고 하는걸 계속 만들어서 뭘 어쩌자는 거냐 하는 소리가 나오게 되어있죠.
하지만 그런 쓸모없어 보이는 연구를 하는 분들 덕분에 기술은 발전해 간다고 생각되더라구요.
휴보 이전에는 KIST에서 센토라는 4족보행 로봇을 했었는데, 그것도 별 헤괴한 소릴 많이 들었답니다.
"재미있는 장난감이군." 뭐 이런 식.

(3) 민간 펀딩 모델이 인상적이었습니다.
우리나라에서 사실 저런 식의 과제를 진행하려면, 국책연구소 끼고 대기업이 발 하나 걸쳐놓고 아주 섹시한(과시적인) 아웃풋을 내놓겠다고 뻥(?)을 치고 로비하고 해야 국책과제로 진행될까 말까 하죠. 잘 아시겠지만....
하지만 실리콘밸리의 펀딩 모델은 국가지원이 아니고 민간 펀딩 모델이 위주인데, 민간 투자를 끌어내면서도 저런 도전적인 과제의 연구를 진행하는게 가능한 시스템이라는 것이 어찌보면 정말 경이롭지요.
안된다 안된다 하는데, 우리나라도 저런 형태로 진화해 나가면 좋겠다는 개인적인 소망이 담긴 글입니다.

(4) 오픈소스라는 점도 인상적이죠.
오픈소스 커뮤니티를 오픈하고 기술의 일부를 공유함으로써 시너지를 일으킨다는 건데
보안유지 및 폐쇄적인 개발모델 위주의 한국에서 배울 만 합니다.
kldp에서 지향하는 것도 이와 같다고 생각합니다.
개성이 강한 연구자가 자신이 의도한 개발과제를 스스로 만들어서 해 나갈 수 있는 환경이 어떤건지 좋은 예시가 된다고 생각됩니다.

(5) 원천기술
우리나라가 원천기술이 부족하다 어쩌구 말들 참 많죠.
인공지능 엔진도 원천기술의 하나라고 할 수 있을 것이고, 향후에 이 기술의 중요성은 더해가겠지요.
Siri에 충격을 받아 국내 기업 중에서도 저걸 어떻게 극복할까 암중모색이 진행되고 있는 듯 한데
저런 것과 연계하여 원천기술을 획득해 나가는 방안은 어떨까 하는 생각도 들었습니다.
뭐 기업에서 잘 알아서 하시겠지만...

======================================
Mechanical Engineer
DymaxionKim.github.io
======================================

cleansugar의 이미지

스티비 원더에 읽기기계 준 커즈와일 왜 구글행?
http://news.naver.com/main/read.nhn?mode=LSD&mid=shm&sid1=105&oid=092&aid=0002014087

"에디슨 이후 미국의 가장 뛰어난 발명가로 추앙받는 미래주의자 레이몬드 커즈와일이 구글 엔지니어로 가세했다. 스티비 원더에게 문자를 소리로 들려주는 읽기기계(Reading Machine)를 제공해 눈을 대신해 준 그는 기계학습과 언어처리에 초점을 두겠다고 밝혔다. 이는 그의 임무가 로봇차의 음성인식기능 향상과 밀접하게 연관돼 있음을 시사하는 것이다. 맹인도 안전성을 걱정하지 않고 탈 수 있는 로봇차 가능성도 예상된다. "

재벌 2세가 재벌이 될 확률과
금메달리스트 2세가 금메달을 딸 확률이 비슷해지도록
자유오픈소스 대안화폐를 씁시다.

아이디의 아이디어 무한도전
http://blog.aaidee.com

귀태닷컴
http://www.gwitae.com