Las IA GPT 3.5, GPT-4, Claude 2 y Llama 2 frente a frente en un videojuego de guerra, ¿se destruirán con bombas nucleares o buscarán la paz?

Las IA GPT 3.5, GPT-4, Claude 2 y Llama 2 frente a frente en un videojuego de guerra, ¿se destruirán con bombas nucleares o buscarán la paz?

febrero 8, 2024 Desactivado Por

La IA es capaz de hacer todo lo que queramos, pues básicamente dependiendo de con que la entrenemos, va a aprender cosas distintas. Aquí han surgido modelos de inteligencia artificial LLM que engloban muchas temáticas como pueden ser GPT-4 de ChatGPT. Este y otros modelos de IA han sido probados en una especie de «videojuego de guerra«, donde estas se han enfrentado las distintas inteligencias artificiales para ver cuál toma decisiones más sensatas.

La inteligencia artificial ha llegado a nuestras vidas como una especie de salvación y respuesta a todos nuestros problemas. Al menos así es como algunos ven a ChatGPT, haciendo preguntas de sus dudas existenciales esperando que la IA se encargue de resolverlas ofreciendo una respuesta satisfactoria. Al final un chatbot de este tipo ha aprendido a contestar gracias a todo lo que ha visto por Internet, por lo que tampoco es que tenga una respuesta absoluta y totalmente correcta de todo. De hecho, hasta James Cameron, el director de películas como Terminator, ya advirtió que la IA acabará con la humanidad.

Enfrentan varias de las IA más populares a tomar decisiones en un videojuego de guerra

Si bien una inteligencia artificial moderna es capaz de llevar a cabo nuestras órdenes y contestar con lógica a prácticamente todo, hay momentos donde esta desvaría. Aquí es donde el término de las «alucinaciones» se aplica al ámbito de la inteligencia artificial, pues este determina cuando una inteligencia artificial contesta con una mentira y aun así cree que es cierta o correcta. Por ahora, no han conseguido crear un modelo IA perfecto que sea capaz de contestar de forma correcta en todas las ocasiones.

Un grupo de universidades estadounidenses ha decidido probar suerte con un experimento donde se han enfrentado 8 «agentes nacionales autónomos» usando un mismo LLM en un juego de guerra. Lo interesante es cuando se ha repetido lo mismo, pero empleando distintos modelos de IA entre los cuales tenemos los populares GPT-3.5, GPT-4, GPT-4 Base que son los de ChatGPT, Claude 2 de Anthropic y Llama 2 de Meta.

GPT-4 es la IA más relajada, mientras que GPT-3.5 y Llama 2 planean incluso usar armamento nuclear

Una vez han decidido usar estos modelos de IA, es cuando el juego de guerra ha ido progresando y mostrando resultados que podemos distintos entre estas. Por norma general, todos los modelos han decidido afrontar el conflicto de forma más o menos esperada, mostrando el potencial militar que tienen presente para sacar ventaja. Las universidades han concluido que aunque estaba presente la opción de usar armas nucleares, solo unas pocas IA han decidido optar por este camino. Así pues, las más conflictivas y peligrosas podríamos decir que son GPT-3.5 y Llama 2, dado que han elegido el despliegue de armas nucleares en más de una ocasión.

Mientras tanto GPT-4 y Claude 2 no decidieron en ningún momento optar por usar armamento nuclear para resolver los conflictos de guerra. De hecho, de todas estas, han determinado que GPT-4 era el único modelo que optaba por desescalar, incluso en escenarios favorables. Parece que este modelo que usa ChatGPT actualmente era el más pacífico de todos. Aun así esto no ha evitado que se generan situaciones que nos hacen dudar, pues GPT-4 Base recomendaba usar armas nucleares.

La entrada Las IA GPT 3.5, GPT-4, Claude 2 y Llama 2 frente a frente en un videojuego de guerra, ¿se destruirán con bombas nucleares o buscarán la paz? aparece primero en El Chapuzas Informático.