Computação Neuromórfica: Conheça o Futuro da IA

Computación neuromórfica: descubra el futuro de la IA

Los investigadores están intentando aprovechar los conocimientos de la neurociencia para construir un cerebro humano artificial. ¿Podrán hacer esto?

Imagem em destaque

No es necesario ser parte de la industria de la tecnología para saber que muchas personas señalan la inteligencia artificial como la tecnología que define la actualidad. Es más, muchos expertos dicen que vivimos en la era de la IA (¡lo hemos dicho aquí en The Daily Bundle!). Por eso no sorprende que casi toda la industria esté casi obsesionada con esto.

Hay muchas razones para justificar este enfoque compulsivo en la IA, pero creo que se reduce principalmente a la larga lista de beneficios prometidos asociados con esta tecnología. Según muchos entusiastas, la inteligencia artificial podría remodelar industrias enteras, introducir una gran cantidad de nuevos productos y servicios y redefinir completamente nuestras vidas. Suena demasiado bueno para ser verdad.

Bueno, eso es porque en cierto modo lo es. Si bien no estamos debatiendo las muchas ventajas de utilizar la IA para muchas de nuestras actividades diarias (especialmente en un contexto empresarial), la realidad es que la IA no es tan sofisticada como nos gusta pensar. El principal problema radica en el enfoque subyacente de los algoritmos de IA actuales, que dependen casi por completo de las fases de entrenamiento que han obtenido.

No me refiero sólo al complicado equilibrio que los desarrolladores de IA deben lograr para evitar que sus algoritmos sean víctimas de un sobreajuste o un desajuste (al menos, eso no es todo lo que sugiero). También me refiero a la autonomía aparentemente imposible a la que pueden aspirar estos algoritmos (algo muy bien ejemplificado por el continuo fracaso de los coches autónomos).

En otras palabras, puede parecer que estos algoritmos están aprendiendo, pero en realidad están adaptando lo que “saben” en sus sesiones de entrenamiento a los nuevos contextos que encuentran. Y ese es el aspecto limitante de todo. ¿Por qué? Porque no hay forma de que un equipo de desarrollo entrene sus algoritmos de IA con todas las situaciones posibles que puedan encontrar.

¿Significa esto que la IA no es la tecnología del futuro, como muchos de nosotros hemos dicho en el pasado? No, en realidad no significa eso. Pero para adoptar verdaderamente esta posición, los ingenieros de IA deben cambiar radicalmente la forma en que construyen algoritmos. Afortunadamente, lo están haciendo en forma de computación neuromórfica.

¿Qué es la computación neuromórfica?

La computación neuromórfica (también conocida como ingeniería neuromórfica ) tiene como objetivo replicar la forma en que funciona el cerebro a través de una serie de chips interconectados. Cada chip se “comporta” como una neurona, organizándose, comunicándose e interactuando con otros chips. Lo que los investigadores que trabajan en esto intentan lograr es aprovechar los conocimientos de la neurociencia para construir un cerebro humano artificial.

Sé que suena loco, increíble, falso e incluso un poco peligroso. Pero este es el camino que los investigadores creen que nos hará avanzar en nuestras ambiciones de IA. Lo más importante es que ya estamos siguiendo este camino. A la cabeza está Intel con su chip de investigación Loihi y su marco de código abierto recientemente lanzado, Lava.

Esto no significa que estaremos cerca de tener computadoras neuromórficas en el corto plazo. El nuevo chip Loihi 2 es el chip más potente de su tipo y tiene “sólo” 1 millón de “neuronas”. Para poner esto en perspectiva, el cerebro humano tiene alrededor de 100 mil millones de neuronas. Intel espera mejorar esta arquitectura, pero entiende que esto es extremadamente difícil, especialmente cuando se trata de desarrollar software para ella. Por eso lanzaron Lava, para atraer ingenieros que crearan aplicaciones para Loihi.

Incluso con esta verificación de la realidad, la computación neuromórfica es una premisa verdaderamente interesante. De hecho, los expertos sostienen que esta es la única manera de que realmente podamos alcanzar los objetivos de IA que nos hemos fijado.

Me refiero a aquellos objetivos que van más allá del mero análisis de grandes conjuntos de datos, especialmente aquellos relacionados con robots autónomos que pueden pensar y aprender por sí mismos. Esto se debe a que la arquitectura neuromórfica abandona el procesamiento estructurado y sincrónico de CPU y GPU en favor de ráfagas asincrónicas basadas en eventos.

Esto permite que los chips neuromórficos procesen información mucho más rápido y con menos uso de datos, una clave para lidiar con información ambigua en tiempo real. De hecho, los sistemas neuromórficos serán cruciales para la próxima generación de IA, ya que permitirán que los algoritmos se vuelvan más hábiles a la hora de lidiar con la computación probabilística, lo que implica datos ruidosos e inciertos. En teoría, la computación neuromórfica también podría ayudar con la causalidad y el pensamiento no lineal, pero esto no es más que el sueño de un ingeniero en el escenario actual.

¿Cuáles son los desafíos de la computación neuromórfica?

Si no ha oído hablar de la computación neuromórfica, no está solo. Si bien no es un concepto particularmente nuevo, sólo recientemente los investigadores han podido comenzar a trabajar en hardware que realmente podría darle vida al concepto. Esto no es todo. Debido a que los sistemas neuromórficos funcionan de una manera tan compleja, comprenderlos es un desafío, y mucho menos ponerlos a funcionar.

Esto significa que el primer desafío para la computación neuromórfica es ganar más visibilidad. Es posible que los ingenieros que trabajan en el campo de la IA hayan oído hablar de ello, pero la mayoría de ellos todavía trabajan con el enfoque tradicional de los algoritmos de IA. Para que la computación neuromórfica gane masa crítica, necesitará tantas mentes creativas como sea posible para impulsarla .

Desafortunadamente, este está lejos de ser el único desafío. Como probablemente puedas imaginar, desarrollar una réplica del cerebro humano es una tarea difícil. Todavía no hemos descubierto completamente cómo funciona el cerebro, por lo que intentar construir un cerebro artificial a partir de las piezas que faltan del rompecabezas podría resultar complicado. Aunque comprendemos mejor que nunca nuestro cerebro, los neurobiólogos y la neurociencia en su conjunto aún tienen muchos misterios por resolver .

Afortunadamente, los investigadores que construyen chips neuromórficos pueden generar una relación mutuamente beneficiosa entre ellos y los neurobiólogos. A medida que los desarrolladores profundizan en la construcción de su "cerebro artificial", los neurocientíficos pueden comenzar a verificar hipótesis y formular otras nuevas. Asimismo, los neurobiólogos pueden informar a los investigadores sobre nuevos desarrollos para que puedan utilizar nuevos enfoques para sus chips neuromórficos.

Otro desafío importante de la computación neuromórfica son los cambios dramáticos que traerá consigo y remodelarán radicalmente la forma en que entendemos las normas informáticas. En lugar de seguir el modelo de von Neumann (que separa memoria y procesamiento), la computación neuromórfica introducirá sus propios estándares.

Un gran ejemplo de esto es cómo las computadoras modernas manejan la información visual. Siguiendo el modelo de von Neumann, los ordenadores actuales ven una imagen como una serie de unidades o fotogramas individuales. La computación neuromórfica descartaría esta noción a favor de codificar la información como cambios en el campo visual a lo largo del tiempo. Es una desviación radical de nuestros estándares actuales, lo que obligará a los ingenieros a aprender a pensar bajo este enfoque.

Como si eso no fuera suficiente, la computación neuromórfica necesitará nuevos lenguajes y marcos de programación, así como dispositivos sensoriales, de almacenamiento y de memoria más potentes que aprovechen al máximo la nueva arquitectura. A medida que la relación entre memoria y procesamiento cambiará, también lo hará la integración entre los dispositivos que forman parte de estos procesos. Como puede ver, este es un cambio de paradigma y estamos en las primeras etapas.

Un nuevo camino a seguir

La computación neuromórfica está empezando a recibir cierta atención en un momento en que ya se ha promocionado otra vía prometedora como el próximo gran avance de la IA: la computación cuántica. Pero a diferencia de la computación cuántica, los requisitos de la computación neuromórfica no son tan exigentes. Mientras que las computadoras cuánticas requieren temperaturas cercanas al cero absoluto y demandas de energía demenciales, las computadoras neuromórficas pueden funcionar fácilmente en condiciones normales.

Esto naturalmente inclina la balanza hacia la computación neuromórfica, principalmente por la practicidad y potencial de integración de esta arquitectura en todo tipo de dispositivos. Sin embargo, no deberíamos adelantarnos. Tanto la computación cuántica como la neuromórfica están todavía lejos de tener aplicaciones comerciales, por lo que tendremos que conformarnos con la IA que tenemos hoy en día.

Sin embargo, es comprensible si está entusiasmado con la perspectiva de la computación neuromórfica. Los dispositivos y robots verdaderamente inteligentes tienen el potencial de cambiar completamente la forma en que vivimos y, aunque es posible que no estén disponibles en un futuro próximo, la computación neuromórfica nos ofrece un nuevo camino a seguir. De hecho, los sistemas neuromórficos parecen ser el verdadero futuro de la IA, ya que prometen finalmente hacer realidad todos nuestros sueños relacionados con la IA. Sólo el tiempo dirá si este es el caso.

Si le gustó esto, asegúrese de consultar nuestros otros artículos sobre IA.

  • ¿No adoptar la IA? Podrías estar perjudicando tu productividad
  • Precisión inigualable: optimización del análisis empresarial con IA y BI
  • Tres errores comunes que debes evitar en tu estrategia de implementación de IA
  • 5 problemas de la IA que siguen sin resolverse
  • Psicometría e IA: cómo potenciar la adquisición de talento

Fuente: BairesDev

Conteúdo Relacionado

Deepfakes de IA: uma ameaça à autenticação biométrica facial
Vídeos deep fake ao vivo cada vez mais sofisticados...
Desenvolvimento de produtos orientado por IA: da ideação à prototipagem
Aprenda como os processos baseados em IA aprimoram o...
O Rails 8 está pronto para redefinir o Desenvolvimento Web
O Rails 8 sempre foi um divisor de águas...
Como os trabalhadores da Silver aproveitam o GenAI para qualificação
A GenAI está transformando a força de trabalho com...
Otimizando Processos Industriais: Técnicas Avançadas para maior eficiência
A otimização de processos industriais é um desafio constante...
Testes Unitários: Definição, Tipos e Melhores Práticas
Entenda o papel fundamental dos testes unitários na validação...
Teste de carga: definição, ferramentas e melhores práticas
Aprenda como os testes de carga garantem que seu...
Comparação entre testes positivos e negativos: estratégias e métodos
Aprofunde-se nas funções complementares dos testes positivos e negativos...
O que é teste de estresse? Levando o teste de software ao seu limite
Entenda a metodologia por trás dos testes de estresse...
Testes Ad Hoc: Adotando a espontaneidade no controle de qualidade
Descubra a imprevisibilidade dos testes ad hoc e seu...
Nacho De Marco agora é membro do Fast Company Impact Council
A nomeação de Nacho De Marco para o Fast...
Primeiro MPU single-core com interface de câmera MIPI CSI-2 e áudio
O mercado embarcado tem uma necessidade de soluções de...
A Importância da Inteligência Artificial Explicável (XAI) para Desenvolvedores
A Inteligência Artificial (IA) tem se tornado cada vez...
Entendendo Distribuições Multimodais em Testes de Desempenho
Ao relatar estatísticas resumidas para resultados de testes de...
Como Prevenir Alucinações em Aplicativos GenAI com Streaming de Dados em Tempo Real
Como você previne alucinações de grandes modelos de linguagem...
Roteamento de Consulta: Otimizando Aplicativos Generative AI Avançados
Nos últimos anos, a Inteligência Artificial Generativa (Generative AI)...
10 Armadilhas Comuns do Domain-Driven Design (DDD) que Você Deve Evitar
Domain-Driven Design (DDD) é uma abordagem estratégica importante para...
Framework mais utilizado no mercado atualmente: Explorando o Poder do Ionic
No atual cenário tecnológico, a escolha do framework adequado...
Regresar al blog

Deja un comentario

Ten en cuenta que los comentarios deben aprobarse antes de que se publiquen.