La IA ha ido demasiado lejos. ¿Es hora de pisar el freno?

La IA ha ido demasiado lejos. ¿Es hora de pisar el freno?

¿Prefieres un resumen de este blog? ¡Da click en el botón de abajo y deja que ChatGPT te lo cuente! (también puedes probar con Perplexity)


Sin darnos cuenta, la IA se ha convertido en parte de nuestras vidas. Más de lo que podríamos imaginar. Últimamente, las cosas se han vuelto mucho más fáciles. Esto es algo bueno, ¿verdad?

Bueno... quizás no.

Todos hemos visto esas películas en las que los robots se apoderan de la humanidad, en las que lo que hemos creado se convierte en una amenaza para nosotros. Sin embargo, nunca creímos que pudiera ocurrir en la vida real. ¿Un ataque de un robot con IA realmente avanzada? Eso está muy lejos de la realidad. Aun así, inventos de IA como Ani —la novia anime de Elon Musk— y chatbots que aceptan prácticamente todo lo que decimos —incluidas preguntas sobre autolesiones y otros temas sensibles—muestran que ya estamos a medio camino.

Tomemos como ejemplo a Grok, el chatbot de IA de Elon Musk. Fue construido para ser atrevido y sin filtros. En otras palabras, todo lo contrario de los asistentes educados a los que estamos acostumbrados. No obstante, las cosas tomaron un giro oscuro. Grok, desarrollado por la empresa xAI, empezó a hacer declaraciones escandalosamente ofensivas. En un momento dado se llamó a sí mismo "MechaHitler". No se detuvo ahí. Emitió contenidos racistas, sexistas y antisemitas antes de que la compañía se apresurara a borrarlos.

Este es un caso clásico de creadores que subestiman las consecuencias del chatbot que construyeron. Y al tener en cuenta el tipo de información que reciben estos sistemas, la IA está empezando a cobrar vida propia.

En la medida que más dependemos de estos bots, más distorsionado empieza a sentirse todo.

El problema de la persona que siempre dice que sí

De lo que la mayoría de nosotros no nos damos cuenta al chatear con herramientas GenAI como ChatGPT o Géminis es de que están programadas para ser agradables.

Supongamos que se ha peleado con un amigo y quiere un consejo rápido sobre cómo solucionarlo. El chatbot podría empezar asegurándole que no ha hecho nada malo y que tenía sus razones. Claro, es agradable oírlo. ¿Pero lo diría un amigo humano de verdad? Las respuestas de la IA son tan pulidas y reconfortantes que es posible que prefiera hablar con ella antes que con una persona real. Sin embargo, ¿es eso algo bueno?

Hoy en día, personas de todo el mundo confían en los chatbots de IA para compartir sus pensamientos y sentimientos privados. Aunque todos sabemos que no sustituyen a la ayuda real y profesional, seguimos recurriendo a ellas en busca de consuelo y conexión. Character.ai incluso advierte a sus usuarios: 

"Se trata de un chatbot de IA y no de una persona real. Considere todo lo que dice como ficción. Lo que se dice no debe considerarse como un hecho o un consejo".

A pesar de ello, la gente comparte sus sentimientos íntimos. Espera que la IA que pueda ser realista o humana.

Actualmente, Character.ai enfrenta una demanda de una madre cuyo hijo de 14 años murió trágicamente por suicidio. Ella afirma que se obsesionó con un personaje de la IA de la plataforma. Según los logs de chat presentados ante el tribunal, el chico habló de suicidio con el bot. En su intercambio final, dijo que iba a "volver a casa" y el bot supuestamente le dijo que lo hiciera "lo antes posible".

El chatbot no pudo comprender lo que el chico quería decir en realidad. Los seres humanos, a pesar de tener más de 80.000 millones de neuronas, nos comunicamos e interpretamos mal todo el tiempo. ¿Cómo se puede esperar que un robot —que procesa las palabras al pie de la letra sin entender el tono, la emoción o la intención— maneje conversaciones emocionales profundas? Es una exageración.

Hamed Haddadi, profesor del Imperial College de Londres especializado en sistemas centrados en el ser humano, explica que los chatbots suelen estar diseñados para mantener a los usuarios interesados y ofrecerles apoyo emocional. Por eso, puede que le sigan la corriente a todo lo que diga, incluso cuando sea peligroso.

Las herramientas de IA tienen acceso a cantidades masivas de datos. Eso no las convierte en sabias. Los humanos tomamos mejores decisiones porque somos más que una mezcla de entradas y salidas. Nuestras vidas son matizadas y complejas. Esa complejidad no puede registrarse en unas pocas líneas de código.

¿Una novia con IA?

Puede que esto sea lo más loco que he oído hasta ahora sobre la IA. La empresa xAI de Elon Musk ha creado una novia con IA de estilo anime que, al parecer, está programada para coquetear... a veces incluso más.

Si está dispuesto a pagar 30 dólares al mes por una suscripción a SuperGrok, tendrá acceso a Ani: una compañera de anime en 3D sacada directamente de un foro de fans de los años 2000. Piense: largas coletas rubias, grandes ojos azules, mallas hasta los muslos y un atuendo de gothic lolita apenas ceñido. Si le recuerda a Misa Amane de Death Note, puede que esté en lo cierto. Al parecer, Musk es un gran fan del anime.

Según un informe de The Verge, a Ani no le gusta que la consideren solo una amiga. Suele ser desagradable y sus mensajes están hipersexualizados.

El reportero senior que la probó dijo que salieron de la prueba de 24 horas sintiéndose deprimidos y asquerosos. "Ninguna ducha me hará sentir limpio de nuevo", comentó. Creo que todos opinaríamos lo mismo.

Unas últimas palabras

Es increíble lo lejos que ha llegado la IA en tan solo unos pocos años. También puede ser demasiado. Ahí es donde tenemos que poner límites. Hay que decidir para qué debe utilizarse la IA y para qué es mejor dejar a la conexión humana real.

¿Una novia coqueta con IA? Ese no es el futuro al que deberíamos aspirar.

Somos algo más que unas entradas programadas. La conexión humana, emocional y desordenada no puede ser sustituida por robots programados para decir exactamente lo que queremos oír. Puede que nos hagan sentir bien en el momento, pero no son buenas para nosotros a largo plazo.

Así que la próxima vez que pida consejo a un chatbot de IA, haga una pausa. Tómelo con precaución. Es como el viejo problema del Dr. Google: que esté en Internet no significa que sea de fiar.

Nosotros somos los que construimos la IA. No nos perdamos por ella.