O gigante de tecnologia está no processo da criação de um protocolo para limpar os seus produtos de inteligência artificial em caso de emergência.
Enquanto a ciência está avançando rapidamente na criação de sistemas de inteligência artificial, a Google está num processo de desenvolvimento de um mecanismo o "grande botão vermelho" que poderá prevenir de actos nocivos dos robôs e agentes de aprendizagem.
Num recente relatório, os pesquisadores advertem que num mundo real é pouco provável que os agentes de aprendizagem funcionem sempre de forma optimizada. "Se um agente opera em tempo real sob supervisão humana, um operador humano pode ter a necessidade de tocar no grande botão vermelho para impedir o agente continuar a fazer uma sequência de acções prejudiciais - para o agente ou para o ambiente - e trazê-lo a uma situação mais segura, informa o documento.
A equipe do Google DeepMind junto com outros cientistas propôs um protocolo que permitiria que o operador humano para interromper a operação da plataforma de inteligência, se necessário, e também garantir que o robô aprenda a evitar ou invalidar essas interrupções. Espera-se que desta forma poder evitar consequências irreversíveis.
Após a análise de vários algoritmos, os cientistas concluiram que alguns deles, tais como o Q-aprendizagem, agora pode ser operado com segurança, enquanto que outros, como Sarsa, pode ser modificado para se tornar ininterrupto.
Fonte: RT
Sem comentários:
Enviar um comentário