article img
columnas de opinión

AI Level 5: ¿Qué hacemos frente a GPT-5? ¿Avanzamos o pausamos?

Hace más de trece años, en 2011, las grandes tecnológicas comprendieron el enorme potencial de la inteligencia artificial. Ese descubrimiento marcó la migración de cientos de expertos desde la academia hacia la industria. Durante los tres años siguientes, Google concentró a los mejores talentos en torno al visionario proyecto Google Brain, hoy conocido como Google DeepMind.

Sin embargo, en 2014, la IA seguía viéndose como una “ciencia fallida”. Pocos imaginaron que sería no solo la próxima ola, sino el próximo tsunami. Entre ellos, un joven Sam Altman, patrocinado por Elon Musk y Satya Nadella, junto a Greg Brockman, Ilya Sutskever, John Schulman, Andrej Karpathy, Pamela Vagata, Trevor Blackwell, Diederik P. Kingma y Vicki Cheung, darían forma a OpenAI. Más tarde se sumarían Dario Amodei y Wojciech Zaremba (2016) y, ya en 2023, Sébastien Bubeck. 

Ese mismo año, tras ocho años de investigación, surgió por primera vez un modelo capaz de dominar el lenguaje de manera convincente: GPT-4. Una IA de acceso universal, interactuando en lo cotidiano y resolviendo problemas reales. 

El impacto fue inmediato. Apenas una semana después de su lanzamiento, Yoshua Bengio —Premio Turing y uno de los “padrinos de la IA”— junto a miles de expertos, pidió una pausa de seis meses en el entrenamiento de sistemas más potentes que GPT-4. Argumentaban que la IA avanzada debía ser “más precisa, segura, interpretable, transparente, robusta, confiable y leal”. En otras palabras: un freno al vertiginoso avance de la IA generativa y de los LLM. 

Bengio incluso propuso un modelo de referencia: la “IA Científica”, una inteligencia artificial que, como un investigador ideal, busque comprender el mundo de manera desinteresada para acelerar la investigación y el progreso humano. La propuesta abrió una controversia que sigue en el centro de la agenda tecnológica. 

En los años recientes, foros y conferencias han sido escenario del debate. Figuras como Geoffrey Hinton, Yann LeCun, Subbarao Kambhampati, Thomas Dietterich, Tom Mitchell, Toby Walsh, Eliezer Yudkowsky y Jürgen Schmidhuber han destacado tanto los avances como los riesgos de esta tecnología. Algunos insisten en una “pausa parcial” y otros en una “pausa indefinida”. 

Marvin Minsky, pionero de la disciplina, advertía que la evolución humana y la de la IA son caminos paralelos pero complementarios: la humanidad cambia poco en miles de años, mientras que la tecnología lo hace radicalmente en pocas décadas. Ejemplo de ello es AlphaFold, de Demis Hassabis y John Jumper, herramienta que permitió predecir la estructura de más de 200 millones de proteínas, logro que les valió el Nobel de 2024. La contribución de la IA al progreso científico parece fuera de toda duda. 

Aun así, la pausa voluntaria parece inviable. Aunque Elon Musk fue el único CEO que firmó la carta de Bengio, la mayoría de los líderes de Big Tech —Tim Cook, Mustafa Suleyman, Sundar Pichai, Matt Garman, Jensen Huang, Mark Zuckerberg o Liang Wenfeng— coinciden en que “pedirle a un grupo en particular que se detenga no resuelve los desafíos más inmediatos”. 

La presión económica también pesa. Según Bloomberg, solo en 2025 Microsoft, Amazon, Google y Meta proyectan invertir más de 344 mil millones de dólares en IA generativa. Incluso bancos como Goldman Sachs ya se preguntan si semejante apuesta se justificará en términos de rentabilidad. 

En paralelo, el debate ético avanza. Desde 2022, el Center for AI Safety, integrado por los principales laboratorios del mundo, busca reducir riesgos sociales asociados a la IA, abordando temas como el sesgo algorítmico, la manipulación informativa, la privacidad, el impacto en el empleo o la autonomía en la toma de decisiones. 

La gran pregunta sigue abierta: ¿es la inteligencia artificial un riesgo existencial para la humanidad o una herramienta que, bien gobernada, puede garantizar nuestro florecimiento? Tal como advierte Yuval Noah Harari, la IA es una tecnología con un potencial enorme, pero también con riesgos significativos. El desafío no es detenerla, sino asegurar que se utilice para el bien común y no con fines destructivos. 

Escrito por

Lino Tejeda

Experiencia en proyectos de transformación, modernización y el uso innovador de la tecnología, construyendo valor hacia el mercado y la industria, a través de alianzas de largo plazo. Actualmente es Gerente de Negocios Digitales para el mercado de América Latina en Sourcing.

Recurso 3-1 LinkedIn

Otras publicaciones del autor