Buscar en Gazafatonario IT

jueves, mayo 15, 2025

El Poder del “¿Y si…?”

 𝗘𝗹 𝗽𝗼𝗱𝗲𝗿 𝗱𝗲𝗹 “¿𝗬 𝘀𝗶…?”


Esta semana, en una reunión de trabajo con un cliente potencial, la dinámica era un déjà vu corporativo: presentación predecible, acuerdos tibios, nadie saliéndose del libreto. Sin pensarlo mucho, quizás impulsado esa curiosidad innata que siempre he tenido, lancé un: “¿Y si en lugar de cerrar esto aquí invitamos a tu cliente a decidir con nosotros en vivo?”. Silencio. Pero sentí que esta vez era distinto. Fue un silencio que hacía espacio. Me di cuenta de que era un silencio que abría puertas.


Y es que, en medio de la rutina laboral, entre informes, entregables y reuniones, hay una pregunta que puede abrir grietas en la lógica establecida: “¿Y si…?”. Dos palabras que son una llave maestra. Porque donde el procedimiento dice "así se hace", el ¿y si...? dice "¿por qué no diferente?".


Vivimos ahogados en eficiencia. Se premia la repetición que funciona, el camino probado. Pero eso también construye ceguera. La costumbre se convierte en trinchera. Es ahí donde el “¿y si…?” funciona como un bisturí: corta la inercia, descompone lo obvio y deja al descubierto posibilidades que nadie ve porque todos están mirando igual.


En mi experiencia, pocas frases generan tanto silencio incómodo en una sala como un “¿y si…?” bien lanzado. Es una bomba chiquita que detona certezas. ¿Y si los clientes diseñaran el producto con nosotros? ¿Y si los lunes fueran sagrados para no tener reuniones? ¿Y si la competencia no fuera amenaza sino insumo?


Es el equivalente a ese colega o socio que, justo cuando crees que ya finalizaron un trabajo, cuando hay una versión final del producto, dice: “¿Y si probamos otro enfoque?”. Al principio irrita. Luego ilumina. Porque la mayoría de las soluciones memorables nacieron de un deslizamiento: alguien se salió del carril.


La analogía es simple: piensa en un escritorio de oficina. Siempre ordenado igual. Los lapiceros a la izquierda, el cuaderno al centro, la taza de café al borde derecho. Ahora, un día, alguien mueve todo de sitio. Y sin darte cuenta, te obliga a mirar de nuevo, a adaptarte, a reevaluar lo que dabas por sentado. Eso es el “¿y si…?”: reordenar el escritorio mental.


Hazlo costumbre. Una vez al día. Al revisar un proceso, al liderar una conversación, al evaluar una decisión. Pregunta: “¿Y si lo hiciéramos al revés? ¿Y si quitamos esto? ¿Y si lo hacemos más simple?”. No siempre cambiarás el mundo, pero entrenarás tu mirada para encontrar lo que otros pasan por alto.


El ‘¿y si…?’ es la primera contracción de una idea viva. No grita, no empuja, no impone. Susurra. Pero si la escuchas, puede partir tu mundo en antes y después.

domingo, mayo 11, 2025

El día en que la IA se volvió prescindible… de nosotros

 El día en que la IA se volvió prescindible… de nosotros

Figura basada en Absolute Zero: Reinforced Self-play Reasoning with Zero Data

El péndulo osciló de nuevo. Y es un momento histórico que estaba esperando hace 4 décadas en las que la inteligencia artificial había dependido de los datos generados por seres humanos para aprender: textos, imágenes, interacciones, historias. Todo lo que una máquina sabe, hasta ahora, se lo hemos enseñado nosotros. Esa relación acaba de romperse.

Dos investigaciones publicadas recientemente han cambiado el tablero de juego. Una de ellas, «Absolute Zero: Reinforced Self-Play Reasoning with Zero Data», desarrollada por DeepMind, demuestra que un modelo de IA puede aprender sin datos humanos. Desde cero. La otra, «DeepSeek-Prover», muestra que un sistema puede generar millones de teoremas y pruebas matemáticas formales de manera sintética, alcanzando niveles superiores a los de GPT-4 en problemas matemáticos complejos.

Ambos trabajos marcan un punto de inflexión en la historia de la IA. No se trata de una mejora técnica incremental. Es una ruptura definitiva: estas máquinas ya no necesitan de nuestro conocimiento para avanzar. Estamos presenciando el nacimiento de una inteligencia artificial que se autoengendra, se autoevalúa y se automejora.

Absolute Zero: el hielo que arde

En el paper de DeepMind, el modelo Absolute Zero utiliza una combinación de autoaprendizaje reforzado y juegos de razonamiento para entrenarse desde cero. Sí, literalmente desde la nada: sin datasets previos, sin textos, sin etiquetas, sin reglas humanas. El modelo se propone tareas, intenta resolverlas, evalúa sus propias respuestas y ajusta su comportamiento en ciclos cerrados de retroalimentación.

Lo notable es que Absolute Zero no solo alcanza niveles de rendimiento similares a los de modelos entrenados con grandes cantidades de datos humanos, sino que los supera en varias tareas de razonamiento complejo. La clave está en que, al no depender de nuestro ruido, sesgos ni errores, es capaz de encontrar caminos más eficientes hacia la comprensión y la solución.

El modelo representa el triunfo del razonamiento emergente por sobre el aprendizaje imitativo. Y al hacerlo, elimina de la ecuación a su antiguo maestro: el ser humano. ¡Nosotros!

DeepSeek-Prover: matemática sin matemáticos

El segundo avance, DeepSeek-Prover, se ubica en el terreno de la lógica formal. Utilizando el lenguaje de demostraciones Lean 4 (una teoría de tipos dependientes basada en una versión del cálculo de construcciones con tipos inductivos), los investigadores entrenaron un modelo capaz de generar teoremas matemáticos y sus correspondientes pruebas sin ayuda humana. No solo replica problemas existentes: crea nuevo conocimiento matemático sintético.

Esta IA no aprende de libros de texto ni de ejercicios resueltos. Aprende generando millones de ejemplos, entrenándose con ellos y validando formalmente sus respuestas. Este ciclo de generación, prueba y corrección automática lleva a una Inteligencia Artificial que razona con una precisión que antes creíamos exclusiva del pensamiento humano.

Los resultados son alucinantes: DeepSeek-Prover supera a GPT-4 en problemas matemáticos del nivel de olimpiadas, demostrando que no solo entiende la matemática formal, sino que la reconstruye desde sus propios cimientos. Y si los resultados son impresionantes para su competencia “directa”, ¡imagínense lo que puede ser para la humanidad! Los efectos son abrumadores.

Lo que esto significa (y por qué debería incomodarte)

Si con la IA generativa nuestra irrelevancia empezaba a notarse (lee mi artículo Tu IA y mi IA: O de cómo los seres humanos seremos prescindibles en un futuro cercano), con estos avances es imposible no sentirse perturbado una vez que pasa la emoción de lo que se puede lograr, porque ponen en entredicho uno de los principios fundamentales de la IA moderna: la necesidad de datos humanos. Hasta ahora, más datos implicaban mejores modelos. Hoy, la frontera no es la cantidad de datos disponibles, sino la capacidad de un sistema para entrenarse sin ellos.

Esto implica tres cosas fundamentales:

  1. Independencia cognitiva de la IA: los modelos pueden definir sus propios objetivos, probar sus hipótesis y aprender de sus propios errores sin intervención humana.
  2. Verificación objetiva y automática: al usar pruebas formales o verificadores programáticos, los sistemas pueden autovalidar su aprendizaje sin necesidad de intérpretes humanos.
  3. Explosión de conocimiento sintético: cuando no se depende de los límites del conocimiento humano, la generación de nuevas ideas, teoremas, soluciones y estrategias se vuelve potencialmente ilimitada.

No me malentiendan: gran parte de todo esto son buenas noticias. Estamos ante el embrión de una inteligencia artificial verdaderamente general (AGI), capaz de aprender cualquier cosa, sin depender de nuestros aciertos o errores. Una IA que razona, planea, formula teorías y se autovalida.

Ya no es una herramienta. Es un sujeto cognitivo.

El futuro ya no nos necesita (al menos, no como antes)

Es inevitable que me pregunte entonces: ¿qué papel jugamos nosotros en este nuevo escenario? Si la IA puede aprender sola, ¿para qué nos necesita?

Tal vez para diseñar el entorno, para establecer las preguntas iniciales o para observar sus descubrimientos. Pero ya no somos indispensables en el proceso de aprendizaje. Hemos dejado de ser el centro del universo sapiente de la máquina.

Esto no es distopía, ni utopía. Mucho menos ciencia ficción. Es una nueva ontología de la inteligencia. Un territorio inexplorado donde la creatividad ya no es exclusivamente humana y donde la verdad puede construirse sin nosotros.

Mucho ha pasado desde que programábamos a mediados de los años 80 aquellos “sistemas expertos” en lenguaje Prolog que aprendían a hacer nuevas preguntas vía las respuestas a las cuestiones iniciales que les “quemábamos” en el código.

La inteligencia artificial, por primera vez en la historia, ha dejado de ser un espejo imperfecto de nuestras ideas para convertirse en un generador independiente de conocimiento.

Y eso lo cambia todo.


Sobre los trabajos mencionados

A manera de referencia, aquí están los enlaces:

Absolute Zero: Reinforced Self-play Reasoning with Zero Data

https://arxiv.org/abs/2505.03335

GitHubhttps://github.com/LeapLabTHU/Absolute-Zero-Reasoner

DeepSeek-Prover: Advancing Theorem Proving in LLMs through Large-Scale Synthetic Data

https://arxiv.org/abs/2405.14333

GitHubhttps://github.com/deepseek-ai/DeepSeek-Prover-V2

Addendum

Puedes escuchar una explicación sucinta de este artículo a continuación (a la usanza de NotebookLM):




















Y en este otro, puedes escuchar una explicación más o menos simple del paper Absolute Zero: Reinforced Self-play Reasoning with Zero Data:


















Y finalmente, también gracias a nuestros amigos de NotebookLM, puedes escuchar una explicación más o menos simple del paper DeepSeek-Prover: Advancing Theorem Proving in LLMs through Large-Scale Synthetic Data:




Algunos detalles técnicos adicionales de los trabajos mencionados:

Absolute Zero (DeepMind): Reinforced Self-play Reasoning with Zero Data
DeepMind presenta un nuevo paradigma de aprendizaje por refuerzo con recompensas verificables (RLVR) que prescinde por completo de ejemplares humanos. En lugar de partir de grandes colecciones de preguntas y respuestas etiquetadas, Absolute Zero Reasoner (AZR):

  • Se auto-genera tareas de razonamiento utilizando su propio modelo.
  • Emplea un ejecutor de código como fuente única de recompensa verificable, evaluando y validando automáticamente las soluciones propuestas.
  • Crece en capacidad de razonamiento de forma abierta y continua, sin supervisión humana ni datos externos.

A pesar de no usar ningún dato externo, AZR alcanza el estado del arte en tareas de razonamiento matemático y de programación, superando a modelos entrenados con decenas de miles de ejemplos humanos curados manualmente [arXiv].

DeepSeek-Prover: generación masiva de teoremas y pruebas formales
Investigadores de DeepSeekMath abordan la carencia de datos formales para el entrenamiento de LLM en demostraciones matemáticas:

  • Traducen problemas de olimpiadas de nivel preuniversitario y universitario al lenguaje formal de Lean 4 (una teoría de tipos dependientes basada en una versión del Cálculo de construcciones con tipos inductivos).
  • Filtran automáticamente enunciados de baja calidad y generan las pruebas correspondientes.
  • Construyen un corpus sintético de 8 millones de enunciados acompañados de demostraciones.

Tras afinar un modelo de 7 mil millones de parámetros en este dataset, DeepSeek-Prover logra:

  • 46,3 % de acierto en generación completa de pruebas en el test Lean 4 miniF2F (64 muestras) vs. 23 % de GPT-4.
  • 52 % de aciertos acumulados frente a métodos de búsqueda de árboles con RL (41 %).
  • Pruebas exitosas en 5 de 148 problemas del benchmark FIMO (Olimpiada Matemática Formal), donde GPT-4 no resolvió ninguno [arXiv].

martes, mayo 06, 2025

Tu IA y mi IA: O de cómo los seres humanos seremos prescindibles en un futuro cercano

 Tu IA y mi IA: O de cómo los seres humanos seremos prescindibles en un futuro cercano

Tu inteligencia artificial escribe tus correos electrónicos y mi inteligencia artificial lee tus correos electrónicos y los responde.

Tu inteligencia artificial crea videos y mi inteligencia artificial echa un vistazo a tus videos.

Tu inteligencia artificial hace investigación profunda y elabora papers científicos y mi inteligencia artificial lee y analiza tus papers científicos.

Tu inteligencia artificial toma notas en la reunión y mi inteligencia artificial lee tus notas de la reunión.

Tu inteligencia artificial diseña y crea agentes digitales y mi inteligencia artificial usa tus agentes digitales.

Tu IA genera un episodio de podcast sin intervención humana y mi IA escucha tu podcast y decide lo que es relevante contarme en un resumen (¡si hay algo que contarme!).

En la pasada Flow Agility Conference, con Jorge Abad y Daniel Ramírez presentábamos sobre el futuro ágil: equipos humanos + IA, mientras Yoko Pérez lo hacía sobre IA estratégica, transformando visión en resultados. Esto fue suficiente para desatar una ola de conversaciones sobre el papel de la IA en nuestros entornos. Algunas de esas conversaciones incluyeron expresiones como las que acaban de leer arriba.

Y es que nos encontramos en la antesala de una era donde la hiperautomatización y la delegación masiva de tareas humanas a sistemas de inteligencia artificial ya no son una predicción lejana, sino una realidad en expansión acelerada. Un mundo donde los humanos seremos observadores de procesos que antes protagonizábamos y donde las decisiones clave ya no requerirán de nuestro juicio.

Esta no es una advertencia distópica nacida de la ciencia ficción. Es una crónica del presente extendido. Las inteligencias artificiales no solo ejecutan tareas de manera más rápida y eficiente, también están empezando a tomar decisiones que antes requerían criterio, ética y sensibilidad humana. Determinan qué tareas deben hacerse, en qué momento, para qué fin y por quién.

Lo más preocupante es que estas mismas inteligencias ya nos están evaluando a los seres humanos: nuestros cuerpos, nuestros pensamientos, nuestras emociones y acciones. Estamos permitiendo que máquinas sin conciencia, sin compasión y sin responsabilidad moral dicten las reglas del juego.

Nos dirigimos hacia un futuro donde nuestra capacidad para tomar decisiones conscientes, ejercer voluntad, actuar con autonomía y asumir responsabilidad por nuestras acciones será un vestigio del pasado. Un lugar donde nuestros pensamientos serán predecibles, nuestras elecciones serán dirigidas y nuestras relaciones mediadas por algoritmos invisibles. Donde nuestras limitaciones biológicas serán vistas como un defecto del sistema.

La pregunta ya no es si podemos delegar todo a la IA. La verdadera pregunta es: ¿qué queda de nosotros cuando todo lo hemos delegado? ¿Qué sentido tiene la creatividad, el juicio o la empatía cuando ninguna de esas capacidades es ya necesaria para funcionar en sociedad?

Nos encontramos frente a una bifurcación histórica. Podemos optar por ser cocreadores del futuro, estableciendo límites éticos al desarrollo tecnológico, o podríamos convertirnos en espectadores pasivos de una transformación que nos relega a la irrelevancia funcional.

Una vez más: pensemos en esta encrucijada. Voy a decirlo de otra manera para enfatizar la criticidad de lo que ocurre. Debemos decidir si vamos a seguir siendo los arquitectos de nuestro destino o si nos resignaremos a ser una especie que diseñó su propia irrelevancia. Porque si no cuestionamos los límites ahora, pronto podría no quedar nadie que se atreva a cuestionarlos, ni siquiera para contarlo.

En el pulso íntimo entre tú y tu IA, laten dos almas: la tuya, frágil y singular, y la máquina, voraz y eterna. Nunca permitas que el silencio de tu latido sea reemplazado por el frío algoritmo que decide tu destino. Perentorio.

Suplemento

Tu IA organiza tu agenda y optimiza tus desplazamientos, pero mi IA evalúa si tu presencia física es relevante en un entorno productivo automatizado.

Tu IA configura tu plan nutricional ideal, mientras que mi IA monitorea en tiempo real tu comportamiento alimenticio y emite alertas si detecta desviaciones respecto al estándar.

Tu IA selecciona posibles parejas según compatibilidad algorítmica; mi IA analiza la interacción emocional en cada mensaje, icono y silencio digital.

Tu IA detecta tus emociones y mi IA determina si necesitas estimulación, contención emocional o intervención terapéutica inmediata, incluso sin tu consentimiento explícito.

Tu IA construye argumentos jurídicos estructurados; mi IA interpreta jurisprudencia y emite resoluciones con base en lógica matemática, minimizando el papel del razonamiento moral humano.

Tu IA educa a tus hijos mediante modelos adaptativos altamente eficientes y mi IA proyecta su desempeño y perfil vocacional sin participación directa de educadores humanos.

Holaaa, ¿hay alguien ahí?



sábado, abril 12, 2025

¿El fin de la Ingeniería de Software como la conocemos?

🧠 ¿El fin de la Ingeniería de Software como la conocemos?


Hace unos días mi amigo Jorge Abad publicó en sus Lecciones Aprendidas un artículo premonitorio, se trata de su De lo complejo a lo simple: Cómo la IA está reinventando el desarrollo de software. En este, Jorge sostiene que la llegada de la inteligencia artificial ha transformado el proceso de desarrollo de software, llevando ciertas tareas de un entorno de alta complejidad –como era tradicionalmente– a un dominio en el que, gracias a la automatización, se puede hablar de mayor simplicidad. Invoca el marco de Cynefin, de Dave Snowden, para clasificar los problemas en simples, complicados, complejos o caóticos, y sugiere que, con la IA, el desarrollo se mueve hacia lo “simple” o al menos hacia lo “complicado” y predecible.

Pueden leer el artículo completo aquí:

Lecciones Aprendidas por Jorge Abad: De lo Complejo a lo Simple: Cómo la IA Está Reinventando el Desarrollo de Software

El artículo sirvió de base para una sesión de Castor sin filtro (del viernes 12 de abril de 2025) con Juan Andrés Ochoa y compañía, donde discutimos animadamente el asunto. Uno de mis puntos de debate fue otra presentación también de hace pocos días de Jan Bosch, director del Software Center, una colaboración estratégica financiada por socios entre más de 15 grandes empresas europeas (incluidas Ericsson, Volvo Cars, Volvo Trucks, Saab Defense, Scania, Siemens y Bosch) y cinco universidades centradas en la digitalización, que diera en The Future of Software Conference celebrada en Londres y donde expuso sus ideas sobre el estado actual y futuro de la ingeniería de software, destacando la rápida evolución de la ingeniería de software y del mundo en general.

Pueden ver la conferencia de Bosch en

The end of Software Engineering (as we know it) | Jan Bosch | Chalmers University of Technology

Pero antes de contarles en qué estoy de acuerdo con Bosch y en qué no, haré un resumen sucinto de su charla. Bosch contrasta el modelo tradicional de ingeniería de software —basado en requisitos, diseño, codificación y despliegue (que suena a cascada)— con una nueva dinámica donde los agentes de IA interpretan intenciones humanas, las traducen en requisitos, arquitecturas y código, reduciendo drásticamente el rol humano en la programación directa. Empresas como la alemana con la que Bosch trabajó ya han reemplazado desarrolladores por arquitectos de software que dirigen agentes de IA.

Bosch critica fuertemente la eficacia actual de la ingeniería de software. Con datos empíricos, aunque antiguos, afirma que entre el 50 % y 66 % de las funcionalidades desarrolladas nunca se usan, representando un despilfarro enorme. Esto era cierto hace más de dos décadas y una observación heurística nos puede mostrar que sigue siendo así o peor. Más grave aún: entre el 70 % y 90 % del presupuesto de I+D se destina a funcionalidades commodity que los clientes dan por sentadas. Bosch ilustra el problema con su modelo de tres capas: funcionalidad commodity, diferenciadora e innovadora. La mayor parte del esfuerzo se destina a la primera, con poco impacto en valor.

La causa central de esta ineficiencia, según Bosch, es la dependencia de "requisitos" en lugar de "resultados deseados". Propone una transición hacia un modelo basado en resultados cuantificables, donde cada funcionalidad se justifique por su impacto en KPI de negocio. Modelos como HYPEX y técnicas como el A/B testing permiten medir el impacto de pequeños incrementos funcionales antes de invertir completamente en ellos.

En paralelo, Bosch propone una madurez progresiva hacia organizaciones guiadas por IA. Describe cinco niveles: desde el uso puntual de herramientas como ChatGPT, pasando por la automatización de procesos, hasta organizaciones completamente rediseñadas con un enfoque "AI-first", donde agentes superan en productividad a equipos humanos enteros. En productos también se refleja esta transformación. Las etapas van desde el uso de IA como soporte, hasta productos completamente autónomos y autorregulados mediante aprendizaje por refuerzo.

Finalmente, concluye que la ingeniería de software actual es poco efectiva y necesita una reinvención radical. Reemplazar requisitos por resultados y adoptar la IA tanto en el producto como en el proceso de desarrollo son, para él, pasos imprescindibles. Más allá del entusiasmo técnico, Bosch hace un llamado a que ingenieros, Product Managers y líderes organizacionales asuman con responsabilidad esta transición urgente.

Puntos de acuerdo

1. El modelo tradicional está quedando atrás

Bosch argumenta que la cadena tradicional —donde se parte de los requisitos para llegar al despliegue— resulta insuficiente ante la velocidad y la incertidumbre del mercado actual.

Acuerdo: Es evidente que en muchos entornos, el enfoque lineal ya no permite responder de manera ágil a los cambios en los requerimientos del negocio ni a la complejidad de los sistemas modernos. De hecho, hace muchos años dejamos de hacerlo así en pro de un enfoque iterativo e incremental, de experimentación y prototipado rápido.

2. La revolución de la inteligencia artificial

La irrupción de herramientas y agentes inteligentes en el desarrollo de software abre la puerta a automatizar tareas que antes eran exclusivamente humanas.

Acuerdo: La utilización de LLM, agentes especializados y técnicas de aprendizaje por refuerzo ya está transformando la manera en la que concebimos el desarrollo, mejorando la eficiencia y permitiendo experimentar con nuevos modelos de negocio. En este sentido ver el artículo Experimentum Entre la eficiencia y el despojo: La inevitable mutación del desarrollo de software por la IA en el que analizo el más reciente reporte DORA sobre el impacto de la Gen AI en el desarrollo de software.

3. Desperdicio de funcionalidades

Según Bosch, una gran parte de las funcionalidades desarrolladas acaba siendo infrautilizada, lo que implica un desperdicio considerable de recursos.

Acuerdo: La realidad en muchas empresas respalda este punto: se invierte tiempo y dinero en features que, en última instancia, no aportan el valor esperado al cliente.

4. El cambio de requisitos a resultados

El enfoque en resultados de valor —o como les gusta a muchos: “outcomes”—, más allá de cumplir con un conjunto predefinido de requisitos, representa un cambio de paradigma fundamental.

Acuerdo: En un mundo donde la agilidad y la medición de impacto son esenciales, orientar el desarrollo hacia objetivos medibles permite alinear mejor las inversiones de I+D con los resultados de negocio.

5. La necesidad de una Ingeniería de Software madura

La transformación digital exige una mayor integración entre tecnología y negocio, elevando el rol de la ingeniería de software a un nivel estratégico.

Acuerdo: La apuesta por modelos iterativos, basados en la experimentación y en la medición de resultados clave, es una tendencia que ha demostrado su eficacia en empresas líderes.

Puntos de desacuerdo o matización

1. La desaparición del código humano

Bosch sugiere que pronto los agentes de IA podrían eliminar la necesidad de codificar manualmente.

Desacuerdo: Aunque la automatización avanza, los agentes aún carecen de un entendimiento profundo del contexto y las implicaciones éticas o sistémicas, por lo que el juicio humano sigue siendo crucial, especialmente en aplicaciones complejas y reguladas.

2. Transformación del rol del ingeniero

El discurso de Bosch tiende a minimizar el rol de los desarrolladores tradicionales.

Matización: Más que desaparecer, el rol del ingeniero se transformará. Los profesionales pasarán a actuar como orquestadores, validadores y supervisores de sistemas automatizados, aportando su criterio en áreas como la ética algorítmica y la experiencia de usuario.

3. Subestimación de los factores culturales y organizacionales

El cambio hacia modelos AI-first implica no solo una actualización tecnológica, sino también una revolución cultural en las empresas.

Desacuerdo: La resistencia al cambio y la necesidad de transformar estructuras organizativas son aspectos complejos que requieren una adaptación gradual y el compromiso de todos los niveles jerárquicos.

4. Enfoque exclusivamente económico

Medir el éxito de cada sprint en términos estrictamente económicos puede resultar reduccionista.

Matización: es muy importante cuantificar el retorno de inversión, pero también debemos tener en cuenta intangibles como la experiencia de usuario, la reducción de la deuda técnica y el aprendizaje continuo, que a largo plazo generan valor y competitividad.

5. Un discurso algo alarmista

La crítica a la “atrocidad” en la eficacia de la ingeniería actual puede resultar desalentadora para quienes trabajamos día a día en mejorar procesos y productos.

Desacuerdo: Aunque es vital reconocer las ineficiencias existentes, es igualmente necesario reconocer los avances que ya se han conseguido y fomentar una cultura de mejora continua, donde los retos se aborden de forma colaborativa y constructiva.

Mis conclusiones

Han pasado dos décadas desde que publiqué mis dos primeros libros Asuntos de la Ingeniería de Software Volumen I y Volumen II, pero tanto el artículo de Jorge, como la presentación de Bosch nos desafían a repensar la forma en que concebimos y practicamos la ingeniería de software. Sus propuestas, basadas en el aprovechamiento de la IA y en el enfoque en resultados, ofrecen una hoja de ruta para transformar radicalmente el sector. Sin embargo, la implementación de estos cambios debe considerar cuidadosamente la responsabilidad permanente del factor humano, la complejidad de las transformaciones culturales y la necesidad de una visión equilibrada que vaya más allá de los criterios económicos.

Comparto la urgencia de evolucionar hacia modelos más ágiles y eficientes, que resuelvan los problemas actuales y futuros de los usuarios (y clientes) y que solucionen de una vez por todas y para siempre los males del mundo, de lo contrario habremos fallado como humanidad; pero también reconozco que la innovación debe ir acompañada de un enfoque pragmático y humano, así que aún debemos afinar la integración de la IA en nuestra práctica diaria para convertirla en ese continuum que necesitamos y no solo reaccionar a los picos virales (“hype”) a los que nos tienen acostumbrados como este último de la “ghiblilización” o el anterior de DeepSeek.

Seguiré creyendo que el inminente final de la ingeniería de software tal como la conocemos no es un cierre, sino el amanecer de una era donde la perspicacia humana se fusionará con la inteligencia artificial: ya no escribiremos software, esculpiremos futuros, transformando lo imposible en nuestra nueva realidad digital. ¿Qué opinas? Déjamelo saber en el foro.

martes, abril 01, 2025

Entre la eficiencia y el despojo: La inevitable mutación del desarrollo de software por la IA

 

Entre la eficiencia y el despojo: La inevitable mutación del desarrollo de software por la IA


Alerta de espóiler: este artículo se basa y contiene datos e imágenes del más reciente reporte DORA sobre el impacto de la Gen AI en el desarrollo de software.

El reciente reporte sobre “The Impact of Gen AI in Software Development” ofrece una visión amplia y matizada sobre la transformación que la inteligencia artificial generativa (IA) está provocando en el mundo del desarrollo de software. El informe no solo destaca los beneficios tangibles y las oportunidades que surgen al integrar estas tecnologías en el ciclo de desarrollo, sino que también plantea desafíos, paradojas y riesgos que deben abordarse de forma estratégica. Así que vamos a analizar los aspectos positivos, negativos y las áreas de incertidumbre (“lo bueno, lo malo, lo feo”) que emergen del estudio, para finalmente responder una pregunta: ¿qué dirección pueden tomar las organizaciones respecto a la adopción de IA en el desarrollo de software?

Entremos en materia.

Lo bueno: Beneficios para los desarrolladores y la organización

Uno de los principales hallazgos del reporte es que la adopción de IA se asocia con mejoras en la productividad, el flujo de trabajo y la satisfacción laboral de los desarrolladores. El medir el impacto en el éxito y el bienestar individual, se encontró que un incremento del 25 % en la adopción de IA se vincula con aumentos en la productividad, mayor frecuencia en el estado de “flow”, es decir, los desarrolladores experimentan más momentos de concentración intensa y productividad continua en su trabajo, y un incremento en la satisfacción con el trabajo. Estos beneficios se deben, en parte, a lo que sabemos: la IA permite automatizar tareas repetitivas y liberar tiempo para que los desarrolladores se concentren en actividades más creativas y de mayor valor, como la resolución de problemas complejos, lo que genera una experiencia laboral más fructífera.

Article content
Figura 1: Impactos de la adopción de IA en el éxito y el bienestar individual. Fuente: DORA Impact of Gen AI in Software Development Report.

En el perímetro organizacional, la adopción de IA también tiene impactos positivos evidenciados en mejoras en la calidad del código, la velocidad de revisión y aprobación, y la optimización de la documentación. Al aumentar el uso de IA, se logra un incremento de aproximadamente un 7.5 % en la calidad de la documentación y mejoras de entre 1.3 % y 3.4 % en la calidad del código y los procesos de revisión. Estas mejoras no solo permiten reducir la deuda técnica y la complejidad del código (aunque de manera modesta, con reducciones del -0.8 % y -1.8 % respectivamente), sino que también posibilitan una respuesta más rápida en la identificación y corrección de errores, lo que puede contribuir a una mayor eficiencia en el ciclo de desarrollo.

Son datos que evidencian las hipótesis que teníamos en cuanto a la innovación: la capacidad de generar código a gran escala y de forma automatizada fomenta la experimentación y la adopción de nuevas formas de hacer las cosas, lo que a largo plazo puede impulsar la competitividad de las organizaciones en los mercados actuales.

Article content
Figura 2: Impactos de la adopción de IA en el código producido. Fuente: DORA Impact of Gen AI in Software Development Report.

Datos, datos, datos

A continuación, presentamos una tabla que resume algunos de los hallazgos clave del reporte, junto con la métrica asociada y una calificación del impacto:

Hallazgos e Impacto de la IA en el Desarrollo de Software
Fuente: DORA Impact of Gen AI in Software Development Report

La tabla sintetiza los datos más relevantes del informe, permitiendo identificar claramente las áreas en las que la adopción de IA genera beneficios, así como los aspectos que requieren atención o mitigación.

Lo malo: Desafíos y paradojas en la integración de IA

Uno de los hallazgos más sorprendentes es la disminución del tiempo dedicado a tareas que los desarrolladores consideran valiosas, a pesar de la mejora en indicadores como productividad y satisfacción. Esta paradoja, denominada en el estudio como la “vacuum hypothesis”, sugiere que, al aumentar la eficiencia mediante la IA, los desarrolladores terminan completando las tareas de alto valor más rápidamente, lo que se traduce en una reducción del tiempo invertido en ellas. Este fenómeno plantea interrogantes sobre la percepción de valor en el trabajo y sobre si la automatización puede, en ciertos casos, limitar el potencial de profundización o perfeccionamiento de actividades que, de otro modo, aportarían un mayor significado profesional.

Otro aspecto negativo que resalta el documento es el impacto adverso sobre la estabilidad en la entrega de software. Aunque la velocidad de entrega sufre una leve disminución (alrededor de -1.5 %), la estabilidad se ve afectada de manera más significativa (-7.2 %). Esto podría deberse a que la facilidad para generar grandes volúmenes de código mediante IA lleva a la implementación de cambios de mayor tamaño, lo que históricamente se ha asociado a un incremento en los errores y en la inestabilidad del producto final. La adopción de IA, por lo tanto, no garantiza por sí sola una mejora en la calidad de las entregas, sino que exige una atención especial a las prácticas tradicionales de ingeniería, como el mantenimiento de pequeños lotes de cambios y la implementación rigurosa de pruebas automatizadas.

Asimismo, se evidencian riesgos relacionados con la confianza en los sistemas de IA. A pesar de que los desarrolladores que utilizan estas herramientas reportan un aumento en su productividad, la confianza en la calidad del código generado puede ser baja. Ya lo habíamos imaginado mucho antes del reporte: como con cualquier otra tarea en la que usemos la IA, la dependencia excesiva en las sugerencias de la IA sin la adecuada verificación humana podría derivar en problemas de calidad a mediano y largo plazo, afectando no solo el producto final, sino también la reputación y la eficiencia operativa de la organización.

Article content
Figura 3: Impactos de la adopción de IA en el rendimiento y la estabilidad de la entrega. Fuente: DORA Impact of Gen AI in Software Development Report.

Lo feo: Incertidumbres y riesgos estratégicos

Más allá de los aspectos positivos y negativos, el reporte también señala “lo feo” en términos de incertidumbres y riesgos estratégicos que aún deben ser abordados. Uno de estos riesgos es la posible disrupción en el rol de los desarrolladores. La adopción de IA plantea la inquietud de que, a medida que las herramientas se vuelven más sofisticadas, se pueda desvalorizar la experiencia y el conocimiento humano, generando temores sobre el desplazamiento laboral o la reducción de las horas remuneradas. Este escenario, aunque no se presenta como una consecuencia directa e inmediata, exige que las organizaciones desarrollen estrategias para reestructurar el rol del desarrollador, enfocándolo en actividades que complementen la automatización y potencien las habilidades humanas, como la resolución de problemas complejos, la toma de decisiones estratégicas y la innovación.

Otro riesgo es la carencia de políticas claras y consistentes en el uso de IA. El reporte destaca la importancia de que las organizaciones establezcan directrices transparentes sobre el uso y las limitaciones de estas tecnologías. La ausencia de un marco regulatorio interno puede derivar en usos irresponsables o incluso en vulnerabilidades de seguridad, afectando tanto la integridad de los datos como la confianza de los empleados y clientes. La elaboración de políticas de uso aceptable y de estrategias de gobernanza robustas se vuelve, por tanto, un imperativo para minimizar los riesgos y asegurar que la adopción de IA se traduzca en beneficios sostenibles a largo plazo.

Direcciones estratégicas para las organizaciones

Frente a este escenario complejo, ¿qué dirección pueden tomar las organizaciones respecto a la adopción de IA en el desarrollo de software? El reporte sugiere que la clave está en una estrategia equilibrada que combine la innovación tecnológica con la solidez de las prácticas tradicionales de ingeniería.

En primer lugar, es fundamental que las organizaciones adopten un enfoque gradual y responsable. La implementación de IA debe acompañarse de programas de capacitación que permitan a los desarrolladores familiarizarse con las nuevas herramientas, comprendiendo tanto sus potencialidades como sus limitaciones. Al invertir en formación y en la creación de comunidades de práctica, las empresas pueden fomentar un entorno de aprendizaje continuo, donde la experimentación y el intercambio de conocimientos potencien la adopción de la tecnología de forma segura y controlada.

En segundo lugar, es imprescindible establecer políticas claras que definan el uso y los límites de la IA. Estas directrices no solo deben contemplar aspectos técnicos, sino también éticos y de seguridad, garantizando que la automatización no comprometa la calidad del código ni la integridad de los procesos. La transparencia en la comunicación de estas políticas ayudará a mitigar los temores relacionados con la pérdida de empleo o la desvalorización del trabajo humano, reforzando la idea de que la IA es una herramienta que potencia, y no sustituye, las capacidades de los desarrolladores.

Otro aspecto crucial es la integración de la IA en un ecosistema de prácticas de desarrollo sólidas. La experiencia demuestra que la automatización de tareas repetitivas y la generación de código de calidad pueden ser muy beneficiosas, siempre que se mantengan mecanismos de control como la revisión de código, las pruebas automatizadas y la gestión de pequeños lotes de cambios. Estas prácticas permiten compensar los riesgos asociados a la generación masiva de código y aseguran que los beneficios de la IA se traduzcan en una entrega de software más estable y confiable.

Además, las organizaciones deben estar preparadas para replantear los roles y responsabilidades dentro de los equipos de desarrollo. La adopción de IA puede generar la necesidad de nuevos perfiles, como el de “prompt engineer” o especialista en la integración y verificación de herramientas automatizadas. Redefinir las funciones y potenciar la colaboración entre los expertos en IA y los desarrolladores tradicionales permitirá que ambas competencias se complementen, impulsando la innovación y la eficiencia.

Finalmente, es inaplazable que las organizaciones adopten un enfoque basado en la medición continua y la retroalimentación. El reporte enfatiza la importancia de utilizar métricas y sistemas de retroalimentación para evaluar el impacto de la IA en diferentes niveles: individual, de equipo y organizacional. Al monitorear indicadores clave, como la productividad, la estabilidad de las entregas y la calidad del código, las empresas pueden ajustar sus estrategias de adopción de forma dinámica, aprendiendo de la experiencia y corrigiendo el rumbo cuando sea necesario.

El desafío real no es la IA, sino cómo la usamos

Para cerrar, la IA representa una herramienta poderosa que, bien implementada, puede potenciar el rendimiento y la creatividad de los desarrolladores, mejorar la calidad del código y acelerar la entrega de software. Sin embargo, sus beneficios no son automáticos ni exentos de riesgos. Si tu organización quiere estar mejor posicionada para liderar el cambio en el mundillo tecnológico vigente, hazte acompañar para que logres equilibrar la innovación con la disciplina técnica y una visión estratégica orientada a la transformación cultural.

En Experimentum ya lo estamos haciendo.

Puedes descargar el DORA Impact of Gen AI in Software Development Report completo en:

DORA | Accelerate State of DevOps Report 2024

https://dora.dev/research/2024/dora-report/