Diversos

Novo modelo de treinamento ajuda carros autônomos a enxergar pontos cegos da IA

Novo modelo de treinamento ajuda carros autônomos a enxergar pontos cegos da IA

Desde sua introdução, há vários anos, os veículos autônomos estão lentamente fazendo seu caminho para as estradas em números cada vez maiores, mas o público continua desconfiado deles, apesar das vantagens de segurança inegáveis ​​que oferecem ao público.

As empresas de veículos autônomos estão totalmente cientes do ceticismo do público. Cada acidente torna mais difícil ganhar a confiança do público e o medo é que, se as empresas não administrarem o lançamento do veículo autônomo de maneira adequada, a reação pode fechar a porta para a tecnologia de carros autônomos da mesma forma que o acidente de Three Mile Island fechou o crescimento das usinas nucleares nos Estados Unidos na década de 1970.

Tornar os veículos autônomos mais seguros do que já são significa identificar aqueles casos em que os programadores podem nunca ter pensado e que a IA não conseguirá responder de forma adequada, mas que um motorista humano entenderá intuitivamente como uma situação potencialmente perigosa. Novas pesquisas de um esforço conjunto do MIT e da Microsoft podem ajudar a preencher essa lacuna entre o aprendizado de máquina e a intuição humana para produzir os veículos autônomos mais seguros até agora.

Tranquilizando um público cauteloso

Se a hesitação do público não fosse um fator, todos os carros na estrada seriam substituídos por um veículo autônomo dentro de alguns anos. Cada caminhão estaria totalmente autônomo agora e não haveria nenhum motorista de Uber ou Lyft, apenas táxis de transporte que você pediria por telefone e iria parar suavemente no meio-fio em alguns minutos sem um motorista à vista.

Acidentes aconteceriam e as pessoas ainda morreriam como resultado, mas por algumas estimativas, 90% das mortes no trânsito em todo o mundo poderiam ser evitadas com veículos autônomos. Carros autônomos podem precisar de recarga, mas não precisam dormir, fazer pausas e estão obstinadamente preocupados em seguir as instruções em sua programação.

Para empresas que dependem de transporte para mover mercadorias e pessoas do ponto A ao ponto B, a substituição dos motoristas por carros autônomos economiza trabalho, seguro e outros custos auxiliares que vêm com uma grande força de trabalho humana.

A economia de custos e os ganhos de segurança são simplesmente grandes demais para manter as pessoas na estrada e atrás do volante.

Adormecemos, dirigimos bêbados, nos distraímos ou simplesmente não dirigimos, e as consequências são caras e mortais. Um pouco mais de um milhão de pessoas morrem todos os anos nas estradas de todo o mundo e a mudança para o transporte comercial autônomo por si só poderia reduzir os custos de transporte de algumas empresas pela metade.

No entanto, o público não está convencido e se torna mais cético a cada relato de um acidente envolvendo um carro que dirige sozinho.

Casos extremos: o calcanhar de Aquiles dos carros autônomos?

Quer seja justo ou não, o ônus de demonstrar a segurança do veículo autônomo recai sobre aqueles que defendem a tecnologia de veículos autônomos. Para fazer isso, as empresas devem trabalhar para identificar e resolver os casos extremos que podem causar acidentes de alto perfil que reduzem a confiança do público na tecnologia, de outra forma segura.

O que acontece quando um veículo está passando pela estrada e avista uma placa de pare castigada pelo tempo, dobrada, deformada e desbotada? Embora seja uma situação obviamente rara - os departamentos de transporte provavelmente teriam removido tal placa muito antes de ela chegar a esse estado terrível - casos extremos são exatamente esse tipo de situação.

Um caso extremo é um evento de baixa probabilidade que não deveria acontecer, mas acontece no mundo real, exatamente os tipos de casos que os programadores e os processos de aprendizado de máquina podem não considerar.

Em um cenário do mundo real, o veículo autônomo pode detectar o sinal e não ter ideia de que é um sinal de pare. Não o trata como tal e pode decidir prosseguir através do cruzamento em velocidade e causar um acidente.

Um motorista humano pode ter dificuldade em identificar o sinal de pare também, mas isso é muito menos provável para motoristas experientes. Nós sabemos o que é um sinal de pare e se ele estiver em qualquer outra coisa que não seja a ruína completa, saberemos parar no cruzamento em vez de prosseguir por ele.

Esse tipo de situação é exatamente o que pesquisadores do MIT e da Microsoft se uniram para identificar e resolver, o que poderia melhorar a segurança de veículos autônomos e, esperançosamente, reduzir os tipos de acidentes que podem retardar ou impedir a adoção de veículos autônomos em nossas estradas.

Modelagem no limite

Em dois artigos apresentados na conferência de Agentes Autônomos e Sistemas Multiagentes do ano passado e na próxima conferência da Associação para o Avanço da Inteligência Artificial, os pesquisadores explicam um novo modelo para o treinamento de sistemas autônomos, como carros autônomos que usam informações humanas para identificar e consertar esses “ pontos cegos ”em sistemas de IA.

Os pesquisadores executam a IA por meio de exercícios de treinamento simulados como os dos sistemas tradicionais, mas, neste caso, um ser humano observa as ações da máquina e identifica quando a máquina está prestes a cometer ou cometeu um erro.

Os pesquisadores então pegam os dados de treinamento da máquina e os sintetizam com o feedback do observador humano e os colocam em um sistema de aprendizado de máquina. Este sistema irá então criar um modelo que os pesquisadores podem usar para identificar as situações em que a IA não possui informações críticas sobre como deve se comportar, especialmente em casos extremos.

“O modelo ajuda os sistemas autônomos a saber melhor o que eles não sabem”, de acordo com Ramya Ramakrishnan, estudante de graduação no Laboratório de Ciência da Computação e Inteligência Artificial do MIT e principal autora do estudo.

“Muitas vezes, quando esses sistemas são implantados, suas simulações treinadas não correspondem à configuração do mundo real [e] eles podem cometer erros, como entrar em acidentes. A ideia é usar humanos para fazer a ponte entre a simulação e o mundo real, de forma segura, para que possamos reduzir alguns desses erros. ”

O problema surge quando ocorre uma situação, como o sinal de parada distorcido, em que a maioria dos casos em que a IA foi treinada não reflete a condição do mundo real que deveria ter sido treinada para reconhecer. Neste caso, foi treinado para que os sinais de stop tenham uma determinada forma, cor, etc. Poderia até ter criado uma lista de formas que poderiam ser sinais de stop e saberia parar para aqueles, mas se não conseguir identificar um sinal de stop corretamente, a situação pode terminar em desastre.

“[B] ecomo as ações inaceitáveis ​​são muito mais raras do que as ações aceitáveis, o sistema acabará por aprender a prever todas as situações como seguras, o que pode ser extremamente perigoso”, diz Ramakrishnan.

Atendendo aos mais altos padrões de segurança

Ao mostrar aos pesquisadores onde a IA possui dados incompletos, os sistemas autônomos podem se tornar mais seguros na borda, onde acidentes de alto perfil podem ocorrer. Se eles puderem fazer isso, podemos chegar ao ponto em que a confiança pública nos sistemas autônomos pode começar a crescer e a implantação de veículos autônomos pode começar a sério, tornando-nos todos mais seguros como resultado.


Assista o vídeo: Sem Motorista! Conheça o caminhão autônomo projetado no Brasil, na USP (Janeiro 2022).