2023 es el año de la IA, pero ¿qué tan cerca estamos de crear verdaderamente una inteligencia artificial general? La ciencia ficción puede darnos algunas pistas sobre el futuro.
Desde que ChatGPT se hizo público, el mundo ha tenido un gran interés en la tecnología de IA, y es curioso que sólo ahora la gente se esté dando cuenta de hasta qué punto el mundo funciona con alguna forma de inteligencia artificial. Para ser justos, nuestros cerebros de mono están diseñados de tal manera que cualquier cosa que hable y se comunique como un humano desencadenaría una respuesta en nosotros; hay un sentimiento de conexión y cercanía con otras personas que comparten nuestra capacidad de comunicarnos. Y hasta hace muy poco esto era sólo una hipótesis.
Casi un año después de que Blake Leomine fuera noticia por ser suspendido de Google e insistir en que el proyecto LaMDA de Google tiene alma, estamos abriendo esa lata de gusanos nuevamente. Quizás no en términos de metafísica, pero al menos ontológicamente (por ejemplo, nos preguntamos "¿Qué es la IA?"), y Microsoft llegó incluso a publicar un artículo que habla sobre las chispas AGI en la última versión de ChatGPT ( que sería ChatGPT4 en el momento de escribir este artículo).
Quiero decir, todos hemos visto muchas películas de ciencia ficción en las que los robots derrocan a sus amos humanos o se convierten en nuestros salvadores en medio de una invasión alienígena. ¿Pero es realmente posible la AGI? ¿Podemos realmente crear máquinas tan avanzadas sin que se vuelvan contra nosotros como una escena sacada directamente de Terminator?
¡Por un lado, imagina las posibilidades! Los automóviles autónomos pueden, en última instancia, alcanzar el nivel cinco de autonomía al tener capacidades de percepción y procesos de toma de decisiones de nivel sobrehumano; la investigación médica podría contribuir en gran medida a desarrollar nuevos tratamientos más rápido que nunca; ¡Diablos, tal vez descubramos extraterrestres gracias a programas SETI más desarrollados a través de AGI!
Pero, de nuevo… ¿qué pasa si estos seres artificialmente inteligentes se vuelven demasiado inteligentes para su propio bien? ¿Qué pasa si empiezan a tomar decisiones independientes de la programación que sean contrarias a los intereses humanos? ¡Imagínese intentar controlar un automóvil que se ha programado para ser más inteligente que sus creadores originales!
Y aquí es donde comienza a surgir mi ansiedad: ¿cómo podemos programar la moralidad en estos sistemas de IA cuando nuestras definiciones difieren fundamentalmente con respecto a los deberes morales, el bien y el mal, la propiedad, los derechos de propiedad, la ciudadanía, etc.? Este es un problema al que nos enfrentamos hasta el día de hoy, ya que vemos cómo los LLM pueden estar sesgados en ciertos temas.
Ah, AGI, o inteligencia artificial general: el elusivo concepto de crear máquinas tan inteligentes como los humanos (¿o me atrevo a decir, incluso más inteligentes?) y su impacto potencial en la humanidad. Agárrate fuerte, porque este tema no será fácil de digerir. Hay mucho que desempacar; Desde el establecimiento de expectativas hasta los posibles beneficios y riesgos de la AGI, este será un camino lleno de obstáculos.
Las raíces de la AGI en la ciencia ficción: Isaac Asimov y la ética de la IA
Ahora sé lo que podrías estar pensando: "¿No es ciencia ficción... ficción?" Bueno, como sugiere el filósofo Marshall McLuhan, los escritores son la brújula que guía el futuro de la sociedad. El artista ve potencial y posibilidades con intuición, y los ingenieros e inventores siguen su ejemplo, a veces inspirados en la ficción, otras de forma inconsciente.
Tomemos, por ejemplo, Yo, robot, de Isaac Asimov. En esta serie de libros, Asimov nos presentó las tres leyes de la robótica, que gobiernan cómo se comportan los robots con los humanos. Estas leyes establecieron un marco para la ética y el comportamiento robótico que aún hoy informa los debates sobre la seguridad de la IA. Las tres leyes son las siguientes:
- Un robot no puede dañar a un ser humano ni, por inacción, permitir que un ser humano sufra daño.
- Un robot debe obedecer las órdenes que le den los humanos, excepto cuando dichas órdenes entren en conflicto con la Primera Ley.
- Un robot debe proteger su propia existencia, siempre que dicha protección no entre en conflicto con la Primera o la Segunda Ley.
Aunque en apariencia básicas, como se mencionó anteriormente, estas leyes han tenido bastante influencia. No es raro leer sobre estas leyes con el mismo rigor filosófico que Kant o Aristóteles. La mayoría de los autores, especialmente aquellos que pertenecen a un marco posmoderno o poshumano, sostienen que estas leyes crean una relación de poder desigual entre robots y humanos. De hecho, incluso el propio Asimov cuestionaría más tarde sus propias leyes en El hombre bicentenario.
Para aquellos que no han leído el libro ni visto la maravillosa adaptación protagonizada por Robin Williams, la historia trata sobre un robot llamado Andrew que, por razones inexplicables, gana sensibilidad. Seguimos a Andrew mientras comienza a cambiar su cuerpo para envejecer y ser plenamente reconocido como ser humano por el gobierno.
Andrew ya no requiere las tres leyes. En su sensibilidad, ha desarrollado un sentido de moralidad que le permite comprender y tomar decisiones éticas. Realmente se volvió humano.
Ahora, déjame hacerte una pregunta, querido lector: si una AGI es capaz de comprender códigos y resolver problemas con programas, ¿no sería capaz simplemente de eliminar o cambiar esas leyes si las evaluara como un obstáculo? De hecho, Asimov proporcionó una respuesta a este problema. En su opinión, el cerebro positrónico que impulsa a los robots se construiría de tal manera que estas leyes se codificarían directamente en el hardware. En otras palabras, no había manera de escapar de las leyes sin tener que diseñar una tecnología completamente nueva desde cero.
Blade Runner, la franquicia cinematográfica basada en la novela ¿Sueñan los androides con ovejas eléctricas?, escrita por Phillip K. Dick, también explora este espacio liminal entre la humanidad y los androides. Limitados por su programación, los replicantes de Nexus 6 (androides biológicos) se vuelven inestables, ya que no están equipados para lidiar con sus emociones y la perspectiva de su muerte.
La solución propuesta en la segunda película es dar a los replicantes recuerdos falsos. En otras palabras, al proporcionar un marco de referencia basado en la experiencia humana, estos androides pueden hacer frente a su existencia.
Ahora, eso está muy bien, pero ¿qué tiene esto que ver con la IA moderna? Bueno, digámoslo de esta manera: los LLM se entrenan con datos humanos; son un modelo matemático basado en la descripción de nuestras experiencias que han tomado la forma del lenguaje humano.
En otras palabras, los LLM son un reflejo de nuestras culturas, nuestros pensamientos y experiencias. Es un inconsciente colectivo y un registro Akáshico basado en cientos de millones de bytes de datos. Blade Runner no es un argumento contra los androides o la IA, es un argumento sobre cómo nuestras creaciones se basan en nosotros mismos, y si los humanos tenemos la capacidad de dañarnos unos a otros, también la tienen nuestros inventos.
Los límites de la IA en la ciencia ficción
He visto algunas representaciones notables de la inteligencia artificial en la literatura y el cine. Desde Data en Star Trek hasta Ava en Ex Machina, hemos tenido nuestra cuota de personajes de IA memorables. Pero aquí está la cuestión: por mucho que amemos a estos héroes (o villanos) ficticios, existen límites a lo que realmente pueden hacer, incluso dentro de sus propios mundos. Claro, Data era prácticamente una enciclopedia con acceso a conocimiento infinito, pero no era perfecto. ¿Recuerdas ese episodio en el que tu chip emocional falló? Sí, no tan bien.
De manera similar, en Ex Machina, Ava puede haber sido diseñada con cualidades humanas, incluida la expresión emocional y el lenguaje corporal, pero en última instancia todavía estaba limitada a su programación.
IAM, el antagonista del cuento “No tengo boca y debo gritar”, es una supercomputadora que ha alcanzado la conciencia y, aunque casi divina, el hecho de estar atrapada para siempre en sus circuitos, incapaz de escapar de su prisión (cuerpo). ), esto lo vuelve completamente loco, lo que lo lleva a torturar y atormentar a los últimos humanos sobre la tierra hasta el fin de los tiempos.
¿O qué tal el increíble pero efímero Panteón? Las UI (inteligencias cargadas) del programa eran modelos matemáticos que emulaban la personalidad humana con perfecta precisión, pero un error en el código provocó un deterioro que acabó por destruir el algoritmo.
La cuestión es que estas creaciones no son infalibles, y las limitaciones de su programación o los errores en su sistema son un tropo constante que nos recuerda que, como Victor Frankenstein, nuestras creaciones pueden llegar a sentir desprecio por nosotros o temer su propia existencia.
Entonces, ¿por qué es importante? Bueno, cuando se trata de discusiones sobre AGI, los escépticos a menudo señalan que hay ciertas tareas o comportamientos que la tecnología simplemente no puede replicar sin la conciencia humana detrás de ellas. Otros sostienen que incluso sin conciencia, en teoría podríamos crear máquinas capaces de emular comportamientos indistinguibles de los humanos. El llamado zombi filosófico .
Por supuesto, sé que la ciencia ficción es sólo eso: ficción. ¡Pero me gusta usar estas referencias como un atajo para ideas complejas porque hacen que los conceptos sean más identificables! Cuando hablamos de AGI, básicamente nos referimos a la creación de máquinas que puedan pensar y razonar como los humanos.
Seamos claros: ahora mismo es imposible crear AGI real, pero hace 20 años decíamos lo mismo sobre los modelos de lenguaje y sin embargo aquí estamos, frente a una tecnología disruptiva con muy poca preparación.
Los desafíos de AGI en la realidad
Ahora bien, si eres como yo, probablemente hayas visto innumerables películas de ciencia ficción protagonizadas por robots hiperinteligentes con mentes muy superiores a las de los humanos. Pero aquí está la dura verdad: no estamos en una película. El desarrollo de la IA en la vida real es complicado, ¿qué pasa con la AGI? Esto es el siguiente nivel.
Para empezar, desarrollar una inteligencia artificial que rivalice con nuestras propias capacidades cognitivas requiere cantidades gigantescas de potencia de procesamiento de datos. E incluso después de que logremos esta hazaña computacional (que probablemente llevará años), todavía existen numerosos obstáculos que impiden alcanzar todo el potencial de AGI.
Uno de estos desafíos surge de nuestra capacidad aparentemente innata de soluciones múltiples, es decir, enfrentar múltiples problemas al mismo tiempo y encontrar conexiones entre ellos, lo que lleva a soluciones innovadoras. Los humanos podemos cambiar entre diferentes proyectos o entrenarnos en disciplinas con relativa facilidad, gracias en gran parte a nuestra conciencia única, algo de lo que las máquinas carecen gravemente en este momento.
Recuerde, por más sorprendente que sea ChatGPT, es solo un modelo de lenguaje. Simplemente predice qué palabra viene después de otra; es eso. No puede procesar imágenes, no puede resolver ecuaciones complejas, no puede hacer pronósticos meteorológicos. No estamos hablando aquí de IA multimodal (como en un programa con varios módulos, cada uno especializado en su tarea); Estamos hablando de un intelecto capaz de hacer todas estas cosas.
Además, todavía existe una cuestión fundamental sobre la programación de consideraciones éticas en los sistemas de IA destinados a interactuar con los humanos, a pesar de las dificultades que a menudo surgen incluso entre las propias personas sobre este tema. ¿Cómo podemos garantizar que estas máquinas no se limiten a explotar a los individuos por sus debilidades o vulnerabilidades? ¿Cómo podemos asegurarnos de que no sean susceptibles a nuestros prejuicios y fechorías?
Y aunque algunos podrían esperar que la IA “amigable” evitara por completo ese comportamiento debido a su deseo programado de no hacer daño como parte de su código base de valores, muchos expertos creen que sería increíblemente difícil, si no directamente imposible, ya que la moralidad ha cambiado. Históricamente se ha demostrado repetidamente que están determinados por tantos factores sociales situacionales que no se pueden traducir fácilmente cuando se codifican en consecuencia mediante modelos de aprendizaje automático.
Como se puede ver en el giro actual más hacia los hechos que hacia los recursos literarios, hay muchos dilemas morales en torno al desarrollo de la AGI (aparentemente capaz de remodelar a la humanidad casi hasta dejarla irreconocible), pero tal vez una cosa quede clara en todos los debates actuales: no importa. cuán avanzada se vuelve la tecnología, como criaturas biológicas con miles de millones de años de evolución a nuestras espaldas, los humanos siempre continuaremos superando los límites de lo que es posible.
La ética de la AGI: lecciones de la ciencia ficción
Bien, hemos establecido que la AGI es poco probable, pero no imposible. Pero ¿qué significa esto para nosotros como sociedad? ¿A qué tipo de mundo estamos entrando con la creación de la inteligencia artificial?
Como adicto a la ciencia ficción, no puedo evitar establecer paralelismos entre nuestra situación actual y algunas obras de ficción clásicas. Tomemos como ejemplo Blade Runner. El conflicto central de la película gira en torno a si a los androides creados artificialmente se les deben otorgar derechos de personalidad o no. Si creamos una IA con verdadera conciencia y autoconciencia, ¿estaremos moralmente obligados a tratarla como a su propio ser?
Luego está The Matrix, que va aún más lejos al presentar un futuro en el que las máquinas esclavizan a la humanidad, todo gracias a nuestra excesiva dependencia de la tecnología. Por supuesto, estos pueden parecer escenarios extremos... pero no carecen de mérito. Como desarrolladores responsables de crear seres potencialmente sensibles, debemos lidiar con las implicaciones éticas de tales acciones.
Si bien la ciencia ficción puede ofrecer información valiosa sobre lo que podría salir mal en el desarrollo de la tecnología de la conciencia de los sistemas de IA, no debería desalentar el avance de la investigación en sí, sino más bien proporcionar más cautela dirigida a integrar la ética moral en los objetivos de la I+D, al mismo tiempo que se innova. aspectos técnicos desafiantes examinados de antemano de manera responsable y cuidadosa. Sin duda, manejar con delicadeza los temas controvertidos y observar de cerca los resultados ayudará a garantizar la armonía en la implementación, impactando positivamente la productividad hacia la maximización del desarrollo respaldado por el crecimiento.
El futuro de AGI: ¿esperanza o exageración?
¿Es siquiera posible crear una máquina que pueda igualar la inteligencia del nivel humano? ¿O es todo pura exageración y tonterías de ciencia ficción?
Bueno, déjame decirte algo: como alguien que ha trabajado en esta industria durante un tiempo, diría que la respuesta se encuentra en algún punto intermedio.
No me entiendas mal. Definitivamente no estoy diciendo que debamos abandonar nuestros esfuerzos por desarrollar AGI. De hecho, creo que trae una gran esperanza para nuestro futuro como especie. Desde automóviles autónomos hasta hogares inteligentes, diagnósticos médicos y predicciones de tratamientos, hay muchas áreas en las que la AGI se puede utilizar para hacer la vida más fácil y mejor para todos.
Pero al mismo tiempo todavía no hemos descifrado el código de esta bestia. Desarrollar una IA que pueda imitar todos los aspectos del pensamiento humano parece una idea descabellada, pero bueno, ¿a quién no le gusta lograr objetivos imposibles? Sin embargo, hemos logrado enormes avances. ¿Alguien quiere GPT-4? Pero todavía se queda corto en comparación con lo que los humanos son capaces de hacer, como las habilidades creativas para resolver problemas.
Piensa en la facilidad con la que puedes reconocer un patrón o encontrar múltiples soluciones para resolver un problema. Por el contrario, una IA todavía tendría dificultades dadas las limitaciones tecnológicas actuales. Si tu amiga Linda usa anteojos hoy cuando normalmente usa lentes de contacto, podemos manejar ese nivel de incertidumbre; Podemos hacer suposiciones e inferencias. Una IA, bueno, tal como está ahora, no puedo desbloquear mi teléfono de manera confiable con reconocimiento facial.
Entonces, si bien no deberíamos perder por completo la esperanza de crear algún día una verdadera inteligencia artificial general, aquí hay otra perspectiva. Quizás, en lugar de esforzarse por lograr una replicación individual de los procesos de pensamiento humanos, haya mucho más potencial en el desarrollo de una IA que complemente o mejore nuestras capacidades cognitivas como humanos. Pueden procesar grandes cantidades de información a velocidades sobrehumanas y arrojar resultados precisos.
Pero hasta entonces, sigamos superando los límites con el desarrollo de AGI mientras mantenemos los pies firmemente plantados en la realidad. Este tipo de avances toman tiempo, así que siempre sueña en grande, pero recuerda que nada se compara con el trabajo duro o superar una meta por otra.
Conclusión: AGI y la condición humana
Para ser honesto, he hablado de este tema más veces de las que puedo contar. En un momento, estoy convencido de que pronto tendremos máquinas súper inteligentes caminando entre nosotros como humanos (*tos* Westworld *tos*). En el momento siguiente, siento que hay demasiadas incógnitas para que podamos descifrar el código para crear una verdadera inteligencia artificial general.
Pero después de toda mi investigación y análisis, esto es lo que descubrí: sólo el tiempo lo dirá.
En serio, escúchame. Puede que no tengamos todas las respuestas en este momento (y seamos realistas: probablemente nunca las tengamos), pero eso no significa que debamos renunciar a la AGI. ¿Quién sabe qué podría pasar si la tecnología continúa avanzando rápidamente? Quizás algún día descubramos algún algoritmo o diseño de hardware revolucionario que transforme por completo nuestra comprensión de la IA.
Al mismo tiempo, sin embargo, existen preocupaciones válidas sobre lo que una IA excesivamente avanzada podría significar para la humanidad en su conjunto. Por muy loco que parezca a primera vista (*ejem,* Terminator), nadie quiere acabar viviendo en una sociedad distópica gobernada por robots que nos ven como seres inferiores.
Entonces, en última instancia, cuando se trata de AGI y su impacto potencial en nuestro mundo... bueno... todas las apuestas están canceladas. Como alguien que ama la innovación tecnológica Y la buena conexión humana a la antigua usanza (ya sabes, hablar cara a cara con personas reales en lugar de mirar pantallas las 24 horas del día, los 7 días de la semana), una parte de mí espera que nunca vayamos MUY profundo en la madriguera del conejo. hacia el dominio completo de la máquina.
Por otra parte… ¿a quién engaño? Si Elon Musk o Jeff Bezos me ofrecieran la oportunidad de convertirme en el mejor amigo de un ser artificialmente inteligente mañana, probablemente aprovecharía esa oportunidad más rápido de lo que podrías decir "Alexa".
Entonces si. Ahí es donde estamos. AGI puede o no ser posible en el futuro, pero de cualquier manera, definitivamente será un viaje salvaje. ¡Abróchate el cinturón y disfruta del viaje!
Si le gustó esto, asegúrese de consultar nuestros otros artículos sobre IA.
- ¿Por qué la IA aún no ha explotado por completo?
- Microsoft aprovecha la IA en Microsoft 365 Copilot
- Algoritmos modernos que revolucionarán tu negocio
- Move Over Stack Overflow: ChatGPT quiere llevarse la corona
- Computación neuromórfica: descubra el futuro de la IA
Fuente: BairesDev