No hay un Google de la IA: no hay un claro liderazgo

Sábado 07 de Marzo de 2026
Edición Nº 2726


5/03/2026

No hay un Google de la IA: no hay un claro liderazgo

Reportaje Rayan Krishnan, cofundador de Vals AI, una importante empresa de evaluación comparativa de modelos lingüísticos, y exinvestigador del Laboratorio de Inteligencia Artificial de Stanford


Se habla mucho de la "carrera de la IA", ya sea entre China y EE. UU., o entre Google y OpenAI . ¿Cómo cree que se determinará quién ganará estas carreras?

La investigación que mide las capacidades de los modelos ha utilizado tradicionalmente parámetros académicos muy artificiales que miden la inteligencia de forma muy abstracta. La inteligencia es, en realidad, una "frontera irregular". [El concepto de que los modelos de IA pueden tener un buen rendimiento en ciertas tareas, pero un rendimiento deficiente en otras que parecen igual de difíciles o más sencillas].

No vemos modelos únicos que sean de vanguardia en todos los ámbitos. En cambio, existen compensaciones. Y dependiendo del ámbito en el que se trabaje, y de si se preocupa por el coste o la latencia, además del rendimiento, existe un modelo diferente que se adapta mejor a cada caso. Ver la inteligencia como una frontera irregular permite una visión más matizada sobre qué modelo está a la vanguardia en un momento dado.

Gran parte del debate en torno al conflicto de Anthropic con la administración Trump se centra en cómo asegurar que Estados Unidos esté por delante de China. ¿Cómo intentaría evaluar si las capacidades militares de inteligencia artificial de Estados Unidos son superiores?

Hay varias áreas diferentes. Primero: ¿Cuáles son las capacidades de los modelos que tienen a nivel nacional o en China? Si simplemente tienen modelos que son más capaces de apoyar a las personas [prácticamente], entonces ese es un predictor importante de quién ganará en estos conflictos.

El segundo son las tasas relativas de adopción: podría haber modelos muy capaces que no se difundan eficazmente en la economía o en el gobierno.

El tercero que analizaría es la ciberseguridad: si los conflictos geopolíticos se desarrollan a través de la IA, esperaría que esto se manifieste primero en el dominio cibernético. Medir las capacidades ofensivas y defensivas de la IA sería fundamental.

El cuarto sería el descubrimiento científico novedoso: los modelos que pueden ejecutar procesos científicos de manera confiable podrían desbloquear la automejora recursiva [la capacidad de un modelo para mejorar su propio código ], la investigación de nuevos medicamentos y materiales. Esa es una ventaja compuesta.

¿Cuáles son las ventajas y desventajas de la evaluación externa? ¿Es posible medir estos sistemas de forma independiente? ¿Y, a partir de cierto punto, qué tan política se vuelve? ¿En qué punto favorece a una empresa o país sobre otro?

El principal desafío aquí es la Ley de Goodhart: una vez que una métrica se convierte en el objetivo, deja de ser una buena medida. Los desarrolladores de IA pueden verse incentivados a diseñar modelos que rindan bien en ciertas pruebas, en lugar de construir sistemas realmente útiles. En el aprendizaje automático, la solución establecida es mantener un conjunto de pruebas realmente estable: puntos de referencia con los que los modelos no se entrenan ni se optimizan.

En cuanto a la política, el valor de la evaluación independiente por terceros reside en que elimina el conflicto de intereses. Sin ella, la evaluación comparativa se realiza ya sea por parte de los propios laboratorios, quienes necesariamente presentan conflictos de intereses, o por parte de los compradores empresariales, quienes a menudo carecen de la experiencia técnica necesaria para realizar una evaluación rigurosa.

¿Habrá algún día un modelo dominante que todos usen? ¿Como Google para las búsquedas?

Lo dudo. Los incentivos económicos para construir modelos de IA altamente capaces son tan grandes que el mercado probablemente favorecerá una competencia continua en lugar de converger en un único ganador.

Más allá de los laboratorios de vanguardia, también estamos viendo una categoría emergente de inteligencia especializada: modelos más pequeños, entrenados a medida y diseñados para casos de uso empresariales específicos, optimizados para el costo y la latencia en lugar de la capacidad bruta. Preveo que seguiremos viendo una explosión de opciones en lugar de una consolidación en torno a un modelo dominante.

Se ha hablado mucho sobre la carrera hacia la IAG . ¿Cómo se puede determinar si un modelo la ha alcanzado?

Enmarcar la IA general como un umbral binario hace casi imposible responder a la pregunta [de si un sistema puede alcanzar la inteligencia artificial general]. Un enfoque más útil consiste en medir la distribución de tareas que un modelo puede realizar y la tasa de éxito en esa distribución.

La inteligencia no debe considerarse un número único, sino un perfil que abarca toda la gama de tareas que podríamos pedirle a un modelo: escritura, razonamiento, codificación, análisis científico, etc. Desde esta perspectiva, hemos visto cómo los modelos se vuelven drásticamente más generales con el tiempo. Esto representa un avance significativo, aunque no se corresponda exactamente con un momento de "IA general alcanzada".

Lo que menos se discute es la superinteligencia artificial, dominios donde los modelos superan a los mejores humanos. Es una definición más clara, y diría que ya estamos viendo indicios tempranos de IIA en áreas específicas como la programación competitiva y la predicción de la estructura de proteínas.

La IA general y la IA de inteligencia artificial (IAI) son, en cierto sentido, un indicador de que la tecnología puede superar a los humanos en ciertas tareas, y gran parte de su trabajo se ha centrado en evaluar la eficacia de los modelos para replicar tareas en ciertos ámbitos profesionales. ¿Cómo evaluamos si la IA puede realmente reemplazar a un trabajador?

Esto es complicado, ya que, como han señalado muchos economistas, un puesto de trabajo no es simplemente un conjunto de tareas bien definidas. Demostrar que un modelo puede completar bien tareas individuales no significa que pueda reemplazar a una persona en un puesto de forma inmediata.

Lo primero que espero ver son mejoras en la productividad y la eficiencia: quienes utilizan la IA eficazmente para tareas específicas superarán notablemente a quienes no la utilizan. Un verdadero desplazamiento laboral requiere mejoras a nivel de producto y redefiniciones sistemáticas del funcionamiento de flujos de trabajo completos. Esto ocurrirá, pero es un proceso más largo de lo que sugieren los parámetros actuales a nivel de tarea.

La industria y la administración han impulsado la integración de la IA en la robótica. Si bien su trabajo se centra principalmente en grandes modelos lingüísticos, ¿tiene una idea de cómo podríamos comparar la "IA física" con el tiempo?

Creo que este espacio podría evolucionar de forma similar a cómo se desarrollaron los vehículos autónomos: aprobaciones regulatorias locales, supervisión humana desde el principio para recopilar datos de entrenamiento y, posteriormente, su retirada gradual a medida que el sistema demuestre su fiabilidad. Métricas como la tasa de accidentes por kilómetro recorrido se convirtieron en el estándar de comparación para los vehículos autónomos. Será necesario que surja algo similar para la IA física en otros ámbitos. La ciencia de la investigación en evaluación aún se encuentra en sus primeras etapas.

 

Tom Steyer revela un plan de IA
El multimillonario candidato a gobernador de California, Tom Steyer, quiere crear un "Fondo Soberano de Riqueza del Estado Dorado" e implementar más regulaciones de inteligencia artificial, informan Chase DiFeliciantonio y Tyler Katzenberger de POLITICO.

Steyer detalló sus propuestas sobre IA en un plan publicado el miércoles, convirtiéndose en el primero en hacerlo entre los principales candidatos. El fondo de riqueza se beneficiaría de los impuestos sobre el uso de IA por parte de las empresas, que se destinarían a iniciativas de educación, capacitación y oportunidades laborales destinadas a mitigar el impacto de la tecnología en los mercados laborales. El marco refleja propuestas similares sobre IA laboral de Sam Altman, CEO de OpenAI, y Dario Amodei, CEO de Anthropic.

El plan de Steyer también exigiría supervisión humana para tareas laborales que pongan en peligro la salud, la seguridad y la equidad, y exige a las empresas de inteligencia artificial que cubran los costos energéticos de los centros de datos. "Me niego a permitir que el futuro de California sea un auge para los multimillonarios y una ruina para todos los demás", escribió en la propuesta.v

Newsletter

Suscribite a nuestro NewsLetter y recibí todas las noticias en tu mail

Notas destacadas