LOADING...
Faça login e
comente
Usuário ou Email
Senha
Esqueceu sua senha?
Ou
Registrar e
publicar
Você está quase pronto! Agora definir o seu nome de usuário e senha.
Usuário
Email
Senha
Senha
» Anuncie » Envie uma dica Ei, você é um redator, programador ou web designer? Estamos contratando!

Future of Life Institute, grupo com Hawking e Musk, cria 23 regras de ética para construção de robôs

02 de fevereiro de 2017 3

O Future of Life Institute, uma entidade voltada a garantir que a inteligência artificial (AI, na sigla em inglês) seja benéfica para os seres humanos, divulgou recentemente uma série de princípios a serem seguidos por empresas que investem no setor. O instituto tem entre seus sócios o físico Stephen Hawking e o CEO da Tesla e da SpaceX, Elon Musk. Antes, os dois defenderam regras para as armas autônomas.

Mas qual as diretrizes que os desenvolvedores devem seguir? Segundo o Future of Life Institute são estes 23 pontos que vocês podem ver abaixo:

Questões de pesquisa
  • Meta da pesquisa: O objetivo da pesquisa em IA não deve ser criar inteligência não-direcionada, mas criar inteligência benéfica.
  • Fundos da pesquisa: Investimentos em IA devem ser acompanhados por investimentos em pesquisa para garantir seu uso benéfico, incluindo questões polêmicas de ciência da computação, economia, direito, ética e estudos sociais, tais como: como podemos aumentar nossa prosperidade por meio da automação e, ao mesmo tempo, manter os recursos e propósitos das pessoas?
  • Ligação ciência-política: Deve haver um diálogo saudável e construtivo entre pesquisadores de IA e agentes reguladores.
  • Cultura de pesquisa: Uma cultura de cooperação, confiança e transparência deve ser cultivada entre pesquisadores e desenvolvedores de IA.
  • Evitar corridas: Equipes desenvolvendo sistemas de IA devem cooperar ativamente para evitar cortes em padrões de segurança.
Ética e valores
  • Segurança: Sistemas de IA devem ser seguros ao longo de toda sua vida operacional, e sua segurança deve ser verificável em todos os casos em que isso seja possível.
  • Transparência em falhas: Se um sistema de IA causar dano, deve ser possível verificar por quê.
  • Transparência jurídica: Qualquer envolvimento de uma IA em um processo de decisão judicial deve oferecer uma explicação aceitável e de forma passível de audição por uma autoridade humana competente.
  • Responsabilidade: Desenvolvedores de sistemas de IA avançados serão responsáveis pelas implicações morais de seu uso, mau uso e ações, com oportunidade e responsabilidade de moldar essas implicações.
  • Alinhamento de valores: Sistemas de IA altamente autônomos devem ser desenhados de tal maneira que seus comportamentos e objetivos possam garantidamente se alinhar a valores humanos em sua operação.
  • Valores humanos: Sistemas de IA devem ser desenhados e operados de forma a ser compatíveis com ideais de dignidade, direitos, liberdades humanas e diversidade cultural.
  • Privacidade pessoal: As pessoas devem ter o direito de acessar, gerenciar e controlar os dados que elas geram, dado o poder dos sistemas de IA de usar e analisar esses dados.
  • Liberdade e privacidade: A aplicação de IA a dados pessoais não deve limitar a liberdade real ou percebida das pessoas.
  • Benefício compartilhado: Tecnologias de IA devem empoderar e ajudar o máximo possível de pessoas.
  • Prosperidade compartilhada: A prosperidade econômica criada por IA deve ser compartilhada amplamente para beneficiar toda a humanidade.
  • Controle humano: Humanos deverão controlar quando e como delegar decisões a sistemas de IA para cumprir objetivos escolhidos por humanos.
  • Não-subversão: A autoridade responsável pelo controle de sistemas avançados de IA deve respeitar e melhorar, e não subverter, os processos sociais e cívicos dos quais dependem a saúde da sociedade.
  • Corrida armamentista de IA: Uma corrida armamentista em sistemas autônomos de IA deve ser evitada.
Questões de longo prazo
  • Caução de capacidades: Não havendo consenso, devemos evitar hipóteses firmes sobre os limites superiores dos sistemas de IA do futuro.
  • Importância: IA avançada pode representar uma profunda mudança na história da vida na Terra, e deve ser planejada e gerenciada com recursos e cuidado adequados.
  • Riscos: Os riscos representados por sistemas de IA, especialmente riscos catastróficos ou existenciais, devem estar sujeitos a planos e esforços de mitigação adequados ao seu possível impacto.
  • Melhoramento autônomo recursivo: Sistemas de IA desenhados para se melhorarem ou replicarem sozinhos de uma maneira que possa levar à qualiade ou quantidade rapidamente crescente devem estar sujeitos a medidas rígidas de controle e regulação.
  • Bem comum: Superinteligência só deve ser desenvolvida a serviço de ideias éticas amplamente compartilhadas e pelo bem de toda a humanidade, e não pelo benefício de apenas um estado ou organização.

3

Comentários

Future of Life Institute, grupo com Hawking e Musk, cria 23 regras de ética para construção de robôs
  • Para tudo nessa vida deveria ser assim.
    Disputas são importantes? O mundo capitalista diz que sim.
    Mas, o que vemos é empresas, nações querendo derrubar a outra.
    Deveria ter a disputa, mas a que se saísse bem, deveria dar uma força para outra e depois todos trabalharem juntas para melhorar o que está feito....

    O problema sempre será a ganância humana.

      • O robô não é o problema. O problema é a pecinha que programa o robô. Essa a ética passou longe desde de muito tempo.

          • Até que a IA se torne senciente da pra seguir esses preceitos. Depois disso é que não sabemos.

              Android

              Celular mais rápido! Ranking TudoCelular com gráficos de todos os testes de desempenho

              Android

              Celular com a melhor bateria! Ranking TudoCelular com todos os testes de autonomia

              Windows

              Versão 122 beta do Microsoft Edge com melhorias e atualização de recursos

              Economia e mercado

              Vídeo gravado por passageiro mostra interior de aeronave após acidente no Japão; assista