Tech 18 Nov
O Future of Life Institute, uma entidade voltada a garantir que a inteligência artificial (AI, na sigla em inglês) seja benéfica para os seres humanos, divulgou recentemente uma série de princípios a serem seguidos por empresas que investem no setor. O instituto tem entre seus sócios o físico Stephen Hawking e o CEO da Tesla e da SpaceX, Elon Musk. Antes, os dois defenderam regras para as armas autônomas.
Mas qual as diretrizes que os desenvolvedores devem seguir? Segundo o Future of Life Institute são estes 23 pontos que vocês podem ver abaixo:
- Meta da pesquisa: O objetivo da pesquisa em IA não deve ser criar inteligência não-direcionada, mas criar inteligência benéfica.
- Fundos da pesquisa: Investimentos em IA devem ser acompanhados por investimentos em pesquisa para garantir seu uso benéfico, incluindo questões polêmicas de ciência da computação, economia, direito, ética e estudos sociais, tais como: como podemos aumentar nossa prosperidade por meio da automação e, ao mesmo tempo, manter os recursos e propósitos das pessoas?
- Ligação ciência-política: Deve haver um diálogo saudável e construtivo entre pesquisadores de IA e agentes reguladores.
- Cultura de pesquisa: Uma cultura de cooperação, confiança e transparência deve ser cultivada entre pesquisadores e desenvolvedores de IA.
- Evitar corridas: Equipes desenvolvendo sistemas de IA devem cooperar ativamente para evitar cortes em padrões de segurança.
- Segurança: Sistemas de IA devem ser seguros ao longo de toda sua vida operacional, e sua segurança deve ser verificável em todos os casos em que isso seja possível.
- Transparência em falhas: Se um sistema de IA causar dano, deve ser possível verificar por quê.
- Transparência jurídica: Qualquer envolvimento de uma IA em um processo de decisão judicial deve oferecer uma explicação aceitável e de forma passível de audição por uma autoridade humana competente.
- Responsabilidade: Desenvolvedores de sistemas de IA avançados serão responsáveis pelas implicações morais de seu uso, mau uso e ações, com oportunidade e responsabilidade de moldar essas implicações.
- Alinhamento de valores: Sistemas de IA altamente autônomos devem ser desenhados de tal maneira que seus comportamentos e objetivos possam garantidamente se alinhar a valores humanos em sua operação.
- Valores humanos: Sistemas de IA devem ser desenhados e operados de forma a ser compatíveis com ideais de dignidade, direitos, liberdades humanas e diversidade cultural.
- Privacidade pessoal: As pessoas devem ter o direito de acessar, gerenciar e controlar os dados que elas geram, dado o poder dos sistemas de IA de usar e analisar esses dados.
- Liberdade e privacidade: A aplicação de IA a dados pessoais não deve limitar a liberdade real ou percebida das pessoas.
- Benefício compartilhado: Tecnologias de IA devem empoderar e ajudar o máximo possível de pessoas.
- Prosperidade compartilhada: A prosperidade econômica criada por IA deve ser compartilhada amplamente para beneficiar toda a humanidade.
- Controle humano: Humanos deverão controlar quando e como delegar decisões a sistemas de IA para cumprir objetivos escolhidos por humanos.
- Não-subversão: A autoridade responsável pelo controle de sistemas avançados de IA deve respeitar e melhorar, e não subverter, os processos sociais e cívicos dos quais dependem a saúde da sociedade.
- Corrida armamentista de IA: Uma corrida armamentista em sistemas autônomos de IA deve ser evitada.
- Caução de capacidades: Não havendo consenso, devemos evitar hipóteses firmes sobre os limites superiores dos sistemas de IA do futuro.
- Importância: IA avançada pode representar uma profunda mudança na história da vida na Terra, e deve ser planejada e gerenciada com recursos e cuidado adequados.
- Riscos: Os riscos representados por sistemas de IA, especialmente riscos catastróficos ou existenciais, devem estar sujeitos a planos e esforços de mitigação adequados ao seu possível impacto.
- Melhoramento autônomo recursivo: Sistemas de IA desenhados para se melhorarem ou replicarem sozinhos de uma maneira que possa levar à qualiade ou quantidade rapidamente crescente devem estar sujeitos a medidas rígidas de controle e regulação.
- Bem comum: Superinteligência só deve ser desenvolvida a serviço de ideias éticas amplamente compartilhadas e pelo bem de toda a humanidade, e não pelo benefício de apenas um estado ou organização.
Comentários