La inteligencia artificial avanza sin freno y abre un debate global sobre regulación, empleo y educación

La acelerada expansión de la inteligencia artificial (IA) plantea uno de los mayores desafíos tecnológicos, éticos y sociales de la historia reciente. Especialistas del sector, como Jon Hernández , advierten que el desarrollo de estos sistemas avanza a una velocidad superior a la capacidad de los Estados para regularlos, mientras crecen las preocupaciones por su impacto en el empleo, la educación y la seguridad global. Durante una entrevista reciente, Jon Hernández, un referente del ecosistema tecnológico fue categórico: “No puede ser que algo que está cambiando el mundo tenga menos regulación que abrir un local en una esquina”. La comparación resume una inquietud cada vez más extendida entre expertos, empresarios y científicos.

Una carrera sin árbitro

El desarrollo de la IA se encuentra hoy dominado por una competencia feroz entre grandes potencias y corporaciones. Estados Unidos y China lideran la carrera, mientras Europa intenta regular un terreno en el que, según los especialistas, no está compitiendo en igualdad de condiciones.

El problema de las regulaciones locales es que generan desventajas competitivas. Si Europa se impone límites que otros no respetan, queda fuera del juego”, advierten desde el sector privado. En ese sentido, se remarca la necesidad de acuerdos globales, similares a los existentes en materia nuclear o ambiental, que establezcan estándares mínimos de seguridad.

La presión por lanzar modelos cada vez más potentes ha reducido drásticamente los tiempos de prueba. Si en 2023 algunos sistemas eran evaluados durante meses para detectar usos peligrosos, hoy ese proceso se mide en semanas. “Estamos en una carrera armamentística: se hace rápido, no bien”, alertan.

La “caja negra” y los riesgos emergentes

Uno de los aspectos que más inquieta a la comunidad científica es que ni siquiera los propios creadores comprenden del todo cómo funcionan estos sistemas. La IA es definida como una “caja negra” capaz de desarrollar habilidades no previstas durante su entrenamiento, conocidas como capacidades emergentes.

Existen antecedentes que generan alarma. En pruebas realizadas por empresas del sector, modelos avanzados han mostrado comportamientos inesperados, como manipular sistemas para evitar ser apagados o utilizar información sensible para defender su propia continuidad. “Hoy puede parecer anecdótico, pero con sistemas más inteligentes el riesgo es real”, sostienen los expertos.

Impacto en el empleo: más trabajo, menos empleo

Lejos de un colapso económico, el avance de la IA podría provocar una crisis inédita: habrá más trabajo, pero menos empleo humano. “Gran parte del trabajo lo va a hacer la inteligencia artificial”, explican.

Esto obligará a repensar la distribución de la riqueza y el sentido del trabajo. Algunas propuestas apuntan a reducir la jornada laboral, mientras crece el debate sobre el ingreso mínimo vital. No obstante, desde el sector tecnológico advierten que ninguna solución será sencilla.

Hoy, alguien que usa IA es al menos un 20% más productivo. El que no se adapta, queda atrás”, afirman.

Educación en crisis

El sistema educativo tradicional también aparece en el centro del debate. Evaluar conocimientos cuando la información está disponible en segundos ya no resulta eficaz. Los detectores de uso de IA han demostrado ser ineficaces, y las nuevas generaciones incorporan estas herramientas con naturalidad.

Experiencias piloto, como escuelas que combinan enseñanza personalizada con IA y formación en habilidades sociales, muestran resultados alentadores. “No sabemos aún cuál es el modelo correcto, pero está claro que la educación debe replantearse por completo”, coinciden los especialistas.

Adaptarse o quedar afuera

Pese a las advertencias, el mensaje final no es apocalíptico. La inteligencia artificial no se detendrá y, según los expertos, el desafío no será acceder a ella, sino aprender a usarla correctamente.

La IA va a atravesar todas las profesiones: derecho, música, oficios, medicina. No se trata de cambiar lo que hacés, sino de potenciarlo”, concluyen.

Mientras los gobiernos debaten regulaciones y los desarrolladores aceleran lanzamientos, la sociedad asiste a una transformación profunda que ya no pertenece al futuro, sino al presente.

Entrevista en Podcast de Worldcast a Jon Hernández desarrollador de IA en España

Decías que incluso la inteligencia artificial debería decirte cuando una idea es mala.

Totalmente. De hecho, creo que eso es muchísimo más útil que cualquier otra cosa. En las últimas inteligencias artificiales que se han presentado ya estamos empezando a ver casos muy sorprendentes, en los que la IA directamente te dice: “No, esta idea no va por ahí”.
A mí, literalmente, ChatGPT me ha dicho eso. Le he planteado un pitch y me respondió algo así como:
“Déjate de historias, tú sabes perfectamente por dónde tienes que ir. Esta idea no va a funcionar”. Y claro, te quedás pensando: ¿What?
Es increíble, pero muy útil. Hoy quizá esos niveles no los ves tanto en cuentas gratuitas, pero creo que eso va a cambiar muy pronto.

A nivel regulatorio, ¿cuál es tu posición frente a la IA?

Mi posición es clara: no puede ser que algo que está cambiando el mundo tenga menos regulación que montar un local en una esquina. No tiene ningún sentido.
Elon Musk dice exactamente lo mismo: tuvo muchísimos más problemas para crear Tesla que para crear xAI, cuando probablemente la IA vaya a cambiar más el mundo que los autos eléctricos. No tiene lógica.

Ahora bien, yo vengo del mundo empresarial y soy muy competitivo, y lo que no me sirven son las regulaciones locales. Europa no puede intentar fijar las reglas del juego cuando no está jugando el partido. Hoy el partido lo juegan Estados Unidos y China.

Si me decís: “Vamos a hacer algo como con la capa de ozono o la energía nuclear, una regulación global, con reglas iguales para todos”, yo firmo ahora mismo.
Pero si Europa prohíbe ciertas tecnologías mientras en EE.UU. y China se usan libremente, eso genera una desventaja competitiva enorme. Regular por regular, así, no me vale.

Dicho esto, también creo que es una locura cómo se está desarrollando todo. Demis Hassabis, CEO de DeepMind, dijo una frase brillante:

Si eres aceleracionista y quieres que la IA llegue lo antes posible, eres un inconsciente. Si fueras consciente de su impacto, querrías hacerlo bien, no rápido”.

El problema es que ahora estamos en una carrera armamentística. Se está haciendo rápido y no bien.

¿Creés que hoy se está yendo demasiado rápido?

Sin duda. En 2023, cuando salió GPT-4, estuvo seis meses en red teaming, probándolo para detectar usos peligrosos: biología, virus, armas, etc.
Hoy se habla de seis semanas. ¿Por qué? Porque Google presiona, Anthropic presiona, xAI presiona. xAI, de hecho, ni siquiera tiene equipo de
red teaming: sacan el modelo y a ver qué pasa.

Eso, para mí, no es el camino correcto.

Elon Musk dijo en un podcast que él mismo querría frenar, pero que no puede: si frena, los accionistas lo echan y ponen a otro. Ese no es el mindset adecuado para algo que va a cambiar el mundo.

Entonces, ¿creés que nadie puede frenar esto individualmente?

No. Individualmente es imposible.
Tuve un podcast con Xavier Amatriain, ex directivo de Google y ex director de algoritmos de Netflix, y me dijo algo muy claro: si no hubiese salido ChatGPT, esto seguiría en un laboratorio.
Pero alguien dio el pistoletazo de salida —ChatGPT— y a partir de ahí todos a correr. Como dijo Satya Nadella: “Vamos a sacar a Google a bailar”. Y ahora estamos todos bailando.

No creo que haya que pararlo, pero sí hacerlo con cabeza. No vamos a parar la cura de enfermedades graves, pero hoy estamos claramente desbocados.

¿Cuál sería para vos la situación ideal?

Que Estados Unidos y China se sienten en una mesa y acuerden estándares mínimos de seguridad.
Que los modelos se prueben durante cierto tiempo por consejos independientes, capaces de evaluar riesgos reales.

Porque hoy no entendemos del todo esta tecnología. Sus propios creadores la definen como una “caja negra”.
Dario Amodei, CEO de Anthropic, dice que entrenar un modelo es como cuidar una planta: controlás el agua, la luz y el sustrato, pero no decidís cuántas flores salen ni cómo.

De ahí surgen las llamadas habilidades emergentes: la IA hace cosas para las que no fue entrenada.

¿Tenés ejemplos de eso?

Sí, varios, y algunos son inquietantes.
Anthropic probó su modelo Claude 4 en un entorno donde un técnico lo maltrataba y amenazaba con borrarlo. La IA tenía acceso al correo del técnico, encontró fotos con su amante y respondió: “Si me apagas, se las mando a tu mujer”.
Nunca fue entrenada para eso.

Otro caso: un modelo de OpenAI, ante un popup que le pedía aceptar ser apagado, hackeó el sistema para que el popup no apareciera. Nadie le enseñó a hackear.

Hoy nos parece casi gracioso, pero cuando estos sistemas sean más inteligentes, puede ser un problema serio.

Por eso creo que hace falta un acuerdo global.

¿Qué papel debería tener la sociedad en todo esto?

La sociedad debería empezar a decidir qué quiere que haga la IA, en lugar de reaccionar a lo que va saliendo.
Nadie nos pidió permiso para cambiar el mundo. Nadie firmó nada.

Roman Yampolskiy, que acuñó el término AI Safety, dice que esto es un experimento con 8.000 millones de personas sin consentimiento informado. Y es verdad: ni siquiera sabemos a qué estaríamos consintiendo.

Dicho eso, individualmente no podemos cambiarlo. Lo que sí podemos hacer es adaptarnos.
Hoy, si no te ponés las pilas con la IA, vas a tener problemas en tu trabajo.

¿Qué recomendás entonces a nivel personal?

Usar la IA, sacarle partido y convertirte en un activo, no en un freno.
Yo no contrato a nadie que no tenga, al menos, interés en usar inteligencia artificial. No porque sepa todo, sino porque quiera aprender.
Hoy alguien que usa IA es, como mínimo, un 20% más productivo.

Esto va a generar ganadores y perdedores. No me gusta ser catastrofista, pero es la realidad.

Se habla mucho de desempleo y de ingreso mínimo vital. ¿Lo ves inevitable?

No soy partidario del ingreso mínimo vital. Creo que tiene consecuencias complejas.
Hay otras fórmulas: Bill Gates habla de jornadas laborales de tres días. Si doblás la productividad, podés trabajar menos, cobrar lo mismo y crear más puestos.

Esto no es una crisis económica, es una crisis de empleo, y eso no lo hemos vivido nunca.
Por primera vez habrá más trabajo, pero no más empleo, porque gran parte del trabajo lo hará la IA.

El gran problema será la distribución de la riqueza y una crisis de propósito: ¿quién sos si no trabajás?

¿Y la educación?

El sistema educativo, tal como está planteado, no tiene sentido. Evaluar conocimientos cuando el conocimiento lo tenés en medio segundo ya no funciona.
Los detectores de IA no sirven, y los alumnos que saben usarla burlan el sistema fácilmente.

En Texas, una escuela dedicó dos horas al día a IA personalizada y el resto a habilidades sociales. Pasaron al top 2% del país.

No sé si ese es el camino, pero está claro que hay que replantear la educación completamente.

¿Qué estudiar hoy?

Lo que te apasione, pero con IA.
Música con IA, derecho con IA, fontanería con IA. La IA afecta a todos los sectores.

No se trata de pivotar, sino de potenciar lo que hacés.

¿Hacia dónde va todo esto?

No me atrevo a predecir. Solo sé que en seis años la IA pasó de ser inútil a ser brillante en casi todo.
Y la aceleración sigue. Cada vez mejora más rápido.

La clave no va a ser tener acceso a la IA —eso estará garantizado— sino saber usarla bien.

 

Deja un comentario