Google의 AI 윤리위원회는 Axon과 같이 투명해야 한다!!

in #google-ai7 years ago

새로운 인공 지능 윤리위원회 (AI) 이사회가 이번 주에 축삭 무기 인 미국의 Axon에 의해 발표되었지만 AI 윤리위원회는 여전히 많은 사람들이 여전히 수수께끼에 싸여 있음을 알고 싶어합니다.

구글은 조용히 AI 정신 윤리위원회를 설치했다. DeepMind라는 런던 인공 지능 연구실을 4 억 파운드에 인수했는데, 언젠가는 우리가 살고있는 사회에 커다란 영향을 미칠 인간 수준의 정보를 가진 기계를 만들기를 희망하고있다. DeepMind 공동 창업자 인 Mustafa Suleyman (이사회 창설을 위해 로비 한)이 2016 년에 Google이 이름을 알리겠다고 말했음에도 불구하고 그 이사회에 앉아있는 빈도, 이사회가 만나는 빈도 또는 이사회가 논의하는 내용은 Deepmind 공동 창립자 인 Mustafa Suleyman 그것들.

이번 주 Axon은 법 집행 시장을 위해 경찰과 무기를위한 신체 카메라를 개발하는 미국 회사로서, Axon의 AI 개발을 안내하는 AI 윤리위원회를 발표 할 때 Google이 지향해야 할 투명성을 보여주었습니다. 전원 공급 장치 및 서비스 "를 참조하십시오.

Axon은 AI 기술이 커뮤니티에 미치는 영향에 대해 Axon의 리더에게 조언하고 가이드하는 임무를 맡고 있다고 전했다. 이사회는 연 2 회 개최되며 목요일 미국 애리조나 주 스코 츠 데일에서 첫 회의를 가졌다.

"우리는 AI 기술의 발전으로 경찰이 데이터 입력을하는 컴퓨터 화면 앞에 붙어있는 것과는 달리 그들의 지역 사회와 연결될 수 있다고 믿는다"고 Axon CEO 겸 창립자 인 Rick Smith는 성명서에서 밝혔다. 그는 또한 법 집행을위한 인공 지능 연구 및 기술이 윤리적으로 그리고 대중과 함께 이루어져야한다고 믿고 있기 때문에 공공 안전 분야의 인공 지능 기술이 책임있게 개발 될 수 있도록 AI 윤리위원회를 만들었다 "고 덧붙였다.

Axon AI 윤리위원회는 Axon의 얼굴 인식 기술 개발에 특히 세심한주의를 기울였으며, 이는 개인 정보 침해와 조지 오웰 (George Orwell)의 "1984"에서 묘사 된 감시 국가로의 이동으로 볼 수 있습니다.

Axon의 인공 지능 및 기계 학습 담당 이사 인 Moji Solgi는 "우리는 제품을 출시하기 전에 사생활을 매우 중요하게 생각하고 법 집행관과 시민들의 개인 정보 보호 문제를 해결합니다. "우리는 고객 및 일반 대중에게 이러한 원칙과이를 준수하려는 우리의 노력에 대해 투명하게 생각합니다."

Axon AI 윤리위원회 위원은 인공 지능, 컴퓨터 과학, 개인 정보 보호, 법 집행, 시민의 자유 및 공공 정책을 포함한 다양한 분야의 전문가를 포함합니다. 그들은:

Ali Farhadi, PhD, University of Washington의 컴퓨터 공학 및 부교수, AI2 수석 연구 관리자 및 Xnor.ai의 CEO
배리 프리드먼 (Barry Friedman), 뉴욕 대학교 법과 대학의 폴리싱 프로젝트 담당 교수 겸 이사
Jeremy Gillula, PhD, 개인 정보 보호 및 시민 자유 기술자
짐 부에 만 (Jim Bueermann) 경찰 재단 이사장
마일즈 브랜지 (Miles Brundage), 옥스퍼드 대학의 미래 인문 연구소 (University of Oxford 's Humanity Institute)의 연구원
스탠포드 대학교의 트레이시 앤 코사 (Tracy Ann Kosa) 박사, 시애틀 대학 법학 대학원 겸임 교수
Vera Bumpers, 휴스턴 메트로 경찰 국장, 흑인 법 집행 기관 임원 선임
월터 맥닐 (Walter McNeil), 플로리다 주 레온 카운티 보안관 사무소 보안관, 전 국제 경찰 총장
구글은 액슨 (Axon)과 같은 무기를 개발하고 있지는 않지만 수십억 명의 전세계 사람들에게 영향을 줄 수있는 인공 지능 연구에 수 억 달러를 투입하고있다.

올해 초 구글이 펜타곤이 군용 무인 항공기를 개발할 수 있도록 돕고 있다고 밝혔다. Google 직원들 사이에서 분노를 불러 일으킨 시범 프로젝트는 무인 항공기 시스템에서 무인 항공기의 물체를 식별하도록 컴퓨터 시스템을 가르치기위한 노력의 일부입니다.

AI 전문가는 잠재적 인 영향을 고려할 때 AI의 윤리에 관해 공개 토론을하는 것이 중요하다고 생각합니다.

The Information의 최근 보고서에 따르면 Google은 12 개의 AI 단위를 보유하고 있지만 Google의 모회사 인 Alphabet에 속한 DeepMind는 전 세계 AI 경쟁의 선두에 서기도합니다. 자체 학습 AlphaGo 에이전트가 악명 높은 어려운 중국 보드 게임 Go에서 세계 챔피언을 이길 때 그것은 2016 년에 역사를 만들었습니다.

DeepMind는 2017 년 10 월 자체 윤리 및 사회 연구 부서를 구성하여 의료, 로봇 및 에너지 분야에 알고리즘을 적용하고 있습니다.

다수의 유명 기술 리더 및 과학자들은 DeepMind가 개발 한 기술과 그러한 기술이 채택 될 수있는 분야에 대해 우려하고 있습니다. 테스코의 엘론 머스크 (Elon Musk) CEO는 "자멸심이있는 의식이있는 컴퓨터 인 AI는 핵무기보다 위험 할 수있다"며 "터미네이터 우려"때문에 딥 마인드에 투자했다. 마이크로 소프트의 억만 장자 빌 게이츠 (Bill Gates)는 AI가 위협이라는 주장과 스티븐 호킹 (Stephen Hawking) 말로 AI는 인류를 끝낼 수 있다고 말했다. 이러한 의견 중 일부는 장기간의 인터뷰에서 작성된 것으로, 사람들의 광범위한 의견을 반영하지는 못하지만 AI의 미래에 대해 여전히 큰 우려가 있다고 말하는 것은 중요합니다.

DeepMind의 창시자가 요청한 게시판의 세부 사항을 공개하지는 않았지만 DeepMind가 AI가 윤리적으로 개발되도록하기 위해 몇 가지 다른 조치를 취했다는 점은 주목할 가치가 있습니다. 이 회사는 "AI 파트너십"컨소시엄을 구성하는 데 핵심적인 역할을 담당했으며, 의료 업무를 면밀히 조사 할 수있는 독립적 인 검토위원회를 구성했습니다.

그러나 구글은 모선이고 사람들은 누가 구글의 AI 작업을 얼마나 자주, 얼마나 자주, 그리고 무엇을 사용하고 있는지를 면밀히 조사하고 있는지 알아야합니다.