banner

blog

Nov 09, 2023

Resolver a dinâmica do cérebro dá origem a uma máquina flexível

imagem anterior imagem seguinte

No ano passado, os pesquisadores do MIT anunciaram que haviam construído redes neurais "líquidas", inspiradas nos cérebros de pequenas espécies: uma classe de modelos de aprendizado de máquina robustos e flexíveis que aprendem no trabalho e podem se adaptar a condições mutáveis, para segurança no mundo real. - tarefas críticas, como dirigir e voar. A flexibilidade dessas redes neurais "líquidas" significou aumentar a linhagem de nosso mundo conectado, gerando uma melhor tomada de decisão para muitas tarefas envolvendo dados de séries temporais, como monitoramento cerebral e cardíaco, previsão do tempo e precificação de ações.

Mas esses modelos se tornam computacionalmente caros à medida que seu número de neurônios e sinapses aumenta e exigem programas de computador desajeitados para resolver sua matemática subjacente e complicada. E toda essa matemática, semelhante a muitos fenômenos físicos, torna-se mais difícil de resolver com tamanho, o que significa computar muitos pequenos passos para chegar a uma solução.

Agora, a mesma equipe de cientistas descobriu uma maneira de aliviar esse gargalo resolvendo a equação diferencial por trás da interação de dois neurônios por meio de sinapses para desbloquear um novo tipo de algoritmos de inteligência artificial rápidos e eficientes. Esses modos têm as mesmas características das redes neurais líquidas – flexíveis, causais, robustas e explicáveis ​​– mas são ordens de magnitude mais rápidas e escaláveis. Esse tipo de rede neural pode, portanto, ser usado para qualquer tarefa que envolva a obtenção de informações sobre os dados ao longo do tempo, pois são compactas e adaptáveis ​​mesmo após o treinamento – enquanto muitos modelos tradicionais são fixos. Não há uma solução conhecida desde 1907 - o ano em que a equação diferencial do modelo do neurônio foi introduzida.

Os modelos, apelidados de rede neural de "tempo contínuo de forma fechada" (CfC), superaram os equivalentes de última geração em uma série de tarefas, com acelerações consideravelmente maiores e desempenho no reconhecimento de atividades humanas de sensores de movimento, modelagem física dinâmica de um robô andador simulado e processamento de imagem sequencial baseado em eventos. Em uma tarefa de previsão médica, por exemplo, os novos modelos foram 220 vezes mais rápidos em uma amostragem de 8.000 pacientes.

Um novo artigo sobre o trabalho foi publicado hoje na Nature Machine Intelligence.

"Os novos modelos de aprendizado de máquina que chamamos de 'CfC's' substituem a equação diferencial que define a computação do neurônio por uma aproximação de forma fechada, preservando as belas propriedades das redes líquidas sem a necessidade de integração numérica", diz a professora do MIT Daniela Rus, diretora do Laboratório de Ciência da Computação e Inteligência Artificial (CSAIL) e autor sênior do novo artigo. "Os modelos CfC são causais, compactos, explicáveis ​​e eficientes para treinar e prever. Eles abrem o caminho para o aprendizado de máquina confiável para aplicações críticas de segurança."

Mantendo as coisas líquidas

As equações diferenciais nos permitem calcular o estado do mundo ou um fenômeno à medida que ele evolui, mas não ao longo do tempo – apenas passo a passo. Para modelar fenômenos naturais ao longo do tempo e entender o comportamento anterior e futuro, como o reconhecimento da atividade humana ou o caminho de um robô, por exemplo, a equipe vasculhou uma sacola de truques matemáticos para encontrar apenas o bilhete: uma solução de "forma fechada" que modela o descrição completa de um sistema inteiro, em uma única etapa de computação.

Com seus modelos, pode-se calcular essa equação a qualquer momento no futuro e a qualquer momento no passado. Não apenas isso, mas a velocidade da computação é muito mais rápida porque você não precisa resolver a equação diferencial passo a passo.

Imagine uma rede neural de ponta a ponta que recebe entrada de direção de uma câmera montada em um carro. A rede é treinada para gerar saídas, como o ângulo de direção do carro. Em 2020, a equipe resolveu isso usando redes neurais líquidas com 19 nós, então 19 neurônios mais um pequeno módulo de percepção poderiam dirigir um carro. Uma equação diferencial descreve cada nó desse sistema. Com a solução de forma fechada, se você substituí-la dentro dessa rede, ela forneceria o comportamento exato, pois é uma boa aproximação da dinâmica real do sistema. Eles podem, assim, resolver o problema com um número ainda menor de neurônios, o que significa que seria mais rápido e menos dispendioso computacionalmente.

COMPARTILHAR