Barak Obama consumiendo cocaína. Donald Trump abrazando cariñosamente a una Kamala Harris embarazada. Joe Biden muerto en un ataúd. Esas son algunas de las polémicas “fotos” que poblaron la red social X (otrora Twitter), a mediados de agosto, apenas se lanzó al mercado Grok-2, la herramienta de Inteligencia Artificial creada por la compañía de Elon Musk, xAI. Su característica distintiva es que no pone mayores obstáculos al momento de crear imágenes, siendo especialmente popular entre quienes buscan mostrar a personajes conocidos -y anónimos también- en poses y actitudes escandalosas, sexualizadas o violentas.
Con la elección presidencial en Estados Unidos a menos de dos meses, con conflictos armados en Gaza y Ucrania -eventos donde lo comunicacional es clave-, y con catastróficas advertencias de los expertos sobre los impensados riesgos de la IA Generativa, se teme que la irrupción de modelos de Inteligencia Artificial que provoquen más división, noticias falsas y enfrentamientos en un escenario internacional ya muy convulsionado.
A fines de agosto, en una polémica carta publicada en revista Time, el escritor especializado en IA Eliezer Yudkowsky advirtió: “No basta con detener los avances de la IA, hay que pararlo todo de forma indefinida. Esto debe tener un alcance mundial, sin excepciones, ni siquiera para los gobiernos o los ejércitos. De lo contrario, toda la humanidad está en riesgo de morir. No estamos preparados y no estamos en vías de estarlo en el futuro”.
El creador del Instituto de Investigación de Inteligencia Artificial pide que todos los laboratorios detengan de inmediato, durante al menos seis meses, el entrenamiento de los sistemas más potentes de IA. Yudkowsky aclara que no teme que esta tecnología sea competitiva con los humanos, sino lo que sucederá cuando esta sea más inteligente que la propia humanidad. “Es urgente que los responsables políticos se den cuenta de que si siguen haciendo las cosas como siempre y hacen lo que es políticamente fácil, sus hijos también van a morir”, dispara.
Si bien no ha llegado a esos extremos, preocupada por el enfoque hacia la «libertad total» de Grok-2, la Comisión Europea (organismo de la UE), inició una investigación para determinar si la red social X podría estar violando la Ley de Servicios Digitales, al permitir la generación de contenido sin restricciones.
Un artículo de la influyente revista Wired -especializada en tecnología- afirma que “Grok-2 se posiciona como un poderoso instrumento para quienes buscan explorar los límites de la IA. Su genialidad es que se hacen cargo de la crítica de los usuarios de que los principales chatbots de inteligencia artificial censuran demasiado. Este modelo hace exactamente lo opuesto, aunque nadie se hace cargo de las consecuencias y abusos que esta permisividad provoca”.
Pese a que xAI -su creadora- ya restringió ciertos términos de búsqueda y la alusión a algunos personajes, sus críticos dicen que todavía los controles son insuficientes. En concreto, hoy el único filtro es la prohibición de crear escenas pornográficas.
“Grok-2 rápidamente se transformará en una potente competencia para otras herramienta de IA como Google Gemini y Chat GPT, ya que es altamente intuitivo, manejable y versátil en una amplia gama de tareas”, afirma Wired.
¿Qué hacemos?
Para sorpresa de la opinión pública internacional, la alerta que encendió Yudkowsky no ha sido vista como una exageración por los estudiosos de las nuevas tecnologías. Según el artículo en Time que acompañó su carta, existe conciencia de que la humidad no está preparada para “una tecnología con inteligencia sobrehumana que deje de hacerle caso al humano, y que no se preocupe por la vida en la tierra”.
Este debate ha provocado múltiples reacciones. Ragan, medio especializado en comunicaciones y tecnologías, cuenta que en febrero próximo se realizará en Miami un importante congreso internacional donde se reunirán desarrolladores de tecnologías y representantes de la principales compañías de AI y de gobiernos para discutir -y tomar decisiones- sobre el futuro de la Inteligencia Artificial. Los ojos de la comunidad científica están puestos en esa conferencia.
Por el momento, OpenAI anunció que GPT-5, la próxima versión de ChatGPT, incluirá cientos de funciones inteligentes nuevas. Sin embargo, la empresa declaró que planean evolucionar hacia una IA con capacidad de controlarse a sí misma.
Un estudio de la Universidad de Harvard propuso poner un tope en la cantidad de poder computacional que se pueda utilizar para entrenar un sistema IA e impulsar una “diplomacia internacional para prevenir escenarios peligrosos. (…) Esto debería ser tan prioritario como la prevención de una guerra nuclear. El nivel de amenaza y daño podría ser similar”. El informe resalta que las responsabilidades principales recaen en China y Estados Unidos. “No es momento de buscar ventajas, sino que de lograr que la tecnología mejore la vida de toda la humanidad”.
Sin embargo, no todos coinciden en los catastróficos pronósticos sobre estos “súper poderes”. El científico de la computación Ramón López, aclara que “lograr que una máquina tenga una inteligencia de tipo general similar a la humana es uno de los objetivos más ambiciosos que se ha planteado la ciencia. Sin embargo, por su dificultad, es comparable a replicar el origen de la vida, el comienzo del universo o conocer la estructura de la materia”.
El investigador dice que la complejidad del cerebro dista mucho de los modelos de IA, y que formar “súper inteligencias artificiales” basadas en réplicas del cerebro que superen la inteligencia humana “es una predicción con poco fundamento científico. Por muy inteligentes que lleguen a ser las futuras IA nunca serán como la humana; el desarrollo mental que requiere toda inteligencia compleja depende de las interacciones con el entorno y estas dependen a su vez del cuerpo, en particular de los sistemas perceptivo y motor”.
Para Ramón López el antídoto que ante los posibles peligros es menos radical que la de sus colegas más alarmistas. “La clave es dotar a las máquinas de sentido común y, en particular, que tengan la capacidad de aprender la relación entre sus acciones y los efectos que estas producen en el entorno”, receta.
Pero Eliezer Yudkowsky contrataca: “Si no puedes estar seguro de si estás creando una IA consciente de sí misma, es muy preocupante, no solo por sus implicaciones morales y éticas, sino porque no tienes idea de lo que estás haciendo. Eso es peligroso ya que si te equivocas al primer intento, no podrás aprender de tus errores, porque estarás muerto”.