quinta-feira, 30 de junho de 2016

As tres leis da robótica



Regras de Satya Nadella para AI são bem diferentes das Três Leis da Robótica
Juliana Américo 29/06/2016 10h57 Inteligência Artificial Robôs 









As Três Leis da Robótica do escritor Isaac Asimov, por mais que sejam ficção, são o mais próximo que já chegamos de controlar o avanço dos robôs em uma tentativa de não destruírem a humanidade.

Em suas histórias, os robôs tinham que seguir três regras fundamentais:
  • 1ª Lei: Um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal.
  • 2ª Lei: Um robô deve obedecer às ordens que lhe sejam dadas por seres humanos exceto nos casos em que tais ordens entrem em conflito com a Primeira Lei.
  • 3ª Lei: Um robô deve proteger sua própria existência desde que tal proteção não entre em conflito com a Primeira ou Segunda Leis.
Mais tarde Asimov acrescentou a “Lei Zero”, que diz que “um robô não pode causar mal à humanidade ou, por omissão, permitir que a humanidade sofra algum mal”.

No entanto, com os recentes avanços na inteligência artificial, cientistas da computação e empresas de tecnologia estão começando a considerar seriamente as regras que realmente precisam ser determinada para nos proteger de robôs e da inteligência artificial.

O CEO da Microsoft, Satya Nadella, listou os seis "princípios e objetivos" que ele acredita que a pesquisa de AI deve seguir para manter a segurança da sociedade. Ao contrário de Asimov, que lista as regras que os robôs devem seguir, Nadella determina regras para a indústrias e cientistas que estão construindo os sistemas.

As regras são:
1.    A inteligência artificial deve ser projetada para ajudar a humanidade: Nadella diz que as máquinas que trabalham ao lado dos humanos devem fazer o "trabalho perigoso, como a mineração", mas ainda "respeitar a autonomia humana."
2.    A inteligência artificial deve ser transparente: "Nós não queremos apenas máquinas inteligentes, mas máquinas inteligíveis", diz Nadella. "As pessoas devem ter uma compreensão de como a tecnologia vê e analisa o mundo."
3.    A inteligência artificial deve maximizar as eficiências sem destruir a dignidade das pessoas: "Nós precisamos ampliar, aprofundar e diversificar o envolvimento da população na concepção destes sistemas. A indústria de tecnologia não deve ditar os valores e virtudes deste futuro."
4.    A inteligência artificial deve ser projetada pensando na privacidade: Nadella pede "proteções sofisticadas de informações pessoais e de grupos."
5.    A inteligência artificial deve ter responsabilidade algorítmica: os seres humanos devem ser capazes de desfazer qualquer dano não intencional no sistema. 
6.    A inteligência artificial deve se proteger contra viés: os desenvolvedores devem se certificar de que a inteligência artificial não será usada para discriminar as pessoas. 

O executivo ainda questiona se a automação não irá prejudicar a economia, com as pessoas perdendo seus empregos para os robôs, e sugere uma necessidade urgente de se discutir isso com a comunidade.

Nenhum comentário:

Postar um comentário