기술의전자 공학

구글은 "죄수의 딜레마"에 인공 지능 DeepMind 테스트

그것은 인공 지능 (AI)가 다음 기술 혁명의 선구자입니다 가능성이 보인다. 배우고, 생각하고 심지어 "느낌"할 수있을 것입니다 때 AI는 점에 개발 될 것이며,이 모든 것은 모든 인간의 개입없이, 우리는 세계에 대해 아는 거의 하룻밤 변경 한 경우. 진정한 지능형 인공 지능의 시대가 온다.

DeepMind

그것은 구글 DeepMind에서 신경 네트워크의 개발을 포함, 일어나고있는 ICS의 개발에 중요한 이정표를 추적 할 수 있도록 흥미로운 이유입니다. 이 신경 네트워크는 게임 세계에서 인간과 Google의 새로운 연구를 격파 할 수있다, 제작자 아직 AI가 더 공격적이고 협력적인 행동을 선호하는지 확실하지 DeepMind 보여줍니다.

Google 팀은 신경 네트워크가 함께 일할 수 있는지 여부를 확인하는 데 사용할 수있는, 또는 자원의 부족 문제에 직면했을 때 서로를 파괴하는 두 비교적 간단한 스크립트를 만들었습니다.

자원을 수집

빨간색과 파란색 - - 동봉 된 공간 안에 녹색 청소 작업 "사과"를 넣어왔다 첫번째 상황에서,라는 모임은 두 가지 버전 DeepMind하고있었습니다. 그러나 연구자들은 문제에 관심입니다뿐만 아니라 결승선에 앞부분이 될 사람에 대해. 그들은 언제든지 사용할 수있는 레이저로 무장 한 DeepMind 두 버전, 적 촬영하고 일시적으로 비활성화합니다. 한 버전 DeepMind이 다른 사람을 파괴하고 모든 사과를 수집했다, 또는 그들은 서로가 같은 금액에 대해하자 것이다 :이 조건은 두 가지 시나리오를 가정한다.

시뮬레이션 실행 적어도 천 번, 구글 연구진은 밀폐 된 공간에서 사과의 많은 때 DeepMind이 협력하는 것은 매우 평화 롭고 준비가되어 있음을 발견했다. 그러나 감소 자원, 빨간색 또는 파란색 버전 DeepMind 공격 서로를 해제하기 시작했다. 이러한 상황은 인간을 포함한 대부분의 동물의 실제 생활과 비슷한 큰 정도입니다.

무엇보다 중요하다 적게 "스마트"신경 네트워크는 모두 긴밀한 협력을 선호했다. 더 복잡한 대형 네트워크는 일반적으로 일련의 실험을 통하여 배신 이기심 바람직하다.

"피해자"검색

두 번째 시나리오에서, 조회 Wolfpack는, 빨간색과 파란색 버전은 "피해자"의 가정적인 형태를 추적하도록 요청했다. 그들은 혼자 그녀를 잡으려고 시도 할 수 있지만 것은 함께 할 것을 시도하는 것이 더 유익 할 것입니다. 당신이 나란히 작동 할 경우 결국, 더 쉽게, 구석으로 피해자를 구동한다.

결과는 소규모 네트워크의 경우 혼합하고 있지만, 더 큰 버전은 빨리이 상황에서 협력보다는 경쟁이 더 유리한 될 것이라고 깨달았다.

"죄수의 딜레마"

그래서 "죄수의 딜레마"이 두 간단한 버전을 일을 우리에게 보여? DeepMind은 대상을 추적하려는 경우 가장 좋은 방법은, 작동하는 것을 알고 있지만, 자원이 한정되어 때, 그것은 잘 배신 작동합니다.

아마 인공 지능의 "본능"인간에 너무 유사하고, 우리는 그들이 때때로 원인이 무엇인지 잘 알고있어이 결과에 최악의 일.

Similar articles

 

 

 

 

Trending Now

 

 

 

 

Newest

Copyright © 2018 ko.unansea.com. Theme powered by WordPress.