El dilema del solucionador: Chris Lehane y la misión imposible de OpenAI
 
                 
Chris Lehane es uno de los mejores en el negocio de hacer desaparecer las malas noticias. Secretario de prensa de Al Gore durante los años de Clinton, jefe de gestión de disaster de Airbnb durante todas las pesadillas regulatorias desde aquí hasta Bruselas: Lehane sabe cómo girar. Ahora lleva dos años en lo que podría ser su trabajo más imposible hasta el momento: como vicepresidente de política world de OpenAI, su trabajo es convencer al mundo de que a OpenAI realmente le importa un comino la democratización de la inteligencia synthetic mientras la compañía se comporta cada vez más como, bueno, cualquier otro gigante tecnológico que alguna vez haya afirmado ser diferente.
Tuve 20 minutos con él en el escenario del Elevar conferencia en Toronto a principios de esta semana: 20 minutos para pasar de los puntos de conversación y profundizar en las contradicciones reales que corroen la imagen cuidadosamente construida de OpenAI. No fue fácil ni completamente exitoso. Lehane es realmente bueno en su trabajo. Es simpático. Suena razonable. Admite incertidumbre. Incluso habla de despertarse a las 3 de la madrugada preocupado por si algo de esto realmente beneficiará a la humanidad.
Pero las buenas intenciones no significan mucho cuando su empresa está citando a sus críticos, drenando el agua y la electricidad de ciudades económicamente deprimidas y resucitando a celebridades muertas para afirmar su dominio en el mercado.
El problema Sora de la empresa está realmente en la raíz de todo lo demás. La herramienta de generación de movies se lanzó la semana pasada con materials protegido por derechos de autor aparentemente integrado. Fue una medida audaz para una empresa que ya estaba siendo demandada por el New York Instances, el Toronto Star y la mitad de la industria editorial. Desde el punto de vista empresarial y de advertising, también fue brillante. La aplicación sólo por invitación se disparó al parte superior de la tienda de aplicaciones a medida que las personas creaban versiones digitales de sí mismas, el director ejecutivo de OpenAI, Sam Altman; personajes como Pikachu, Mario y Cartman de “South Park”; y celebridades muertas como Tupac Shakur.
Cuando se le preguntó qué impulsó la decisión de OpenAI de lanzar esta nueva versión de Sora con estos personajes, Lehane me dio el discurso estándar: Sora es una “tecnología de propósito normal” como la electricidad o la imprenta, que democratiza la creatividad para personas sin talento ni recursos. Incluso él, que se describe a sí mismo como un cero creativo, puede hacer vídeos ahora, dijo en el escenario.
Lo que dio vueltas es que OpenAI inicialmente «permitió» que los titulares de derechos optaran por no utilizar su trabajo para entrenar a Sora, que no es como normalmente funciona el uso de los derechos de autor. Luego, después de que OpenAI notara que a la gente realmente le gustaba usar imágenes con derechos de autor (por supuesto que sí), “evolucionó” hacia una modelo de suscripción. Eso no es realmente una iteración. Eso es probar cuánto puedes salirte con la tuya. (Y por cierto, aunque la Movement Image Affiliation hizo algo de ruido la semana pasada sobre amenazas legales, OpenAI parece haberse salido con la suya en muchas cosas).
Naturalmente, la situación recuerda el malestar de los editores que acusan a OpenAI de entrenarse en su trabajo sin compartir el botín financiero. Cuando presioné a Lehane sobre la exclusión de los editores de la economía, invocó el uso legítimo, esa doctrina authorized estadounidense que se supone equilibra los derechos de los creadores con el acceso público al conocimiento. Lo llamó el arma secreta del dominio tecnológico estadounidense.
Evento tecnológico
									san francisco
													|
													27-29 de octubre de 2025
							
Tal vez. Pero recientemente entrevistó a Al Gore – el antiguo jefe de Lehane – y me di cuenta de que cualquiera podía simplemente preguntarle a ChatGPT al respecto en lugar de leer mi artículo en TechCrunch. «Es ‘iterativo'», dije, «pero también es un reemplazo».
Por primera vez, Lehane abandonó su perorata. «Todos vamos a necesitar resolver esto», dijo. «Es realmente simplista y fácil sentarse aquí en el escenario y decir que necesitamos idear nuevos modelos de ingresos económicos. Pero creo que lo haremos». (En resumen, lo vamos inventando sobre la marcha).
Luego está la pregunta sobre infraestructura que nadie quiere responder honestamente. OpenAI ya está operando un campus de centro de datos en Abilene, Texas, y recientemente inició la construcción de un centro de datos masivo en Lordstown, Ohio, en asociación con Oracle y SoftBank. Lehane ha comparado la accesibilidad a la IA con la llegada de la electricidad – diciendo que aquellos que accedieron a ella en último lugar todavía están tratando de ponerse al día – sin embargo, el proyecto Stargate de OpenAI aparentemente está apuntando a algunos de esos mismos lugares con dificultades económicas como lugares para establecer instalaciones con su enorme apetito por agua y electricidad.
Cuando se le preguntó durante nuestra reunión si estas comunidades se beneficiarán o simplemente pagarán la factura, Lehane se refirió a los gigavatios y la geopolítica. OpenAI necesita alrededor de un gigavatio de energía por semana, señaló. China incorporó 450 gigavatios el año pasado más 33 instalaciones nucleares. Si las democracias quieren una IA democrática, tienen que competir. “El optimista que hay en mí cube que esto modernizará nuestros sistemas energéticos”, había dicho, pintando un cuadro de Estados Unidos reindustrializado con redes eléctricas transformadas.
Fue inspirador. Pero no fue una respuesta sobre si la gente en Lordstown y Abilene verá cómo aumentan sus facturas de servicios públicos mientras OpenAI genera movies de John F. Kennedy y The Infamous BIG (la generación de movies es la La IA que eat más energía por ahí.)
Lo que me llevó a mi ejemplo más incómodo. Zelda Williams pasó el día anterior a nuestra entrevista suplicando a extraños en Instagram que dejaran de enviarle movies de su difunto padre, Robin Williams, generados por IA. “No estás haciendo arte«, escribió. «Estás haciendo sizzling canine repugnantes y sobreprocesados a partir de la vida de los seres humanos».
Cuando le pregunté cómo concilia la empresa este tipo de daño íntimo con su misión, Lehane respondió hablando de procesos, incluido el diseño responsable, los marcos de prueba y las asociaciones gubernamentales. «No existe un handbook para estas cosas, ¿verdad?»
Lehane mostró vulnerabilidad en algunos momentos, diciendo que se despierta a las 3 de la mañana todas las noches, preocupado por la democratización, la geopolítica y la infraestructura. «Esto conlleva enormes responsabilidades».
Independientemente de si esos momentos fueron diseñados para la audiencia o no, le creo. De hecho, salí de Toronto pensando que había visto una clase magistral sobre mensajería política: Lehane enhebraba una aguja imposible mientras esquivaba preguntas sobre decisiones de la empresa con las que, hasta donde yo sé, ni siquiera está de acuerdo. Entonces sucedió el viernes.
Nathan Calvin, un abogado que trabaja en políticas de IA en una organización de defensa sin fines de lucro, Encode AI, reveló que mientras hablaba con Lehane en Toronto, OpenAI había enviado un ayudante del sheriff a su casa en Washington, DC, durante la cena para entregarle una citación. Querían sus mensajes privados con legisladores de California, estudiantes universitarios y ex empleados de OpenAI.
Calvin está acusando a OpenAI de tácticas de intimidación en torno a una nueva norma de IA, la SB 53 de California. Cube que la compañía utilizó su batalla authorized con Elon Musk como un arma como pretexto para atacar a los críticos, implicando que Encode fue financiado en secreto por Musk. De hecho, Calvin cube que luchó contra la oposición de OpenAI al SB 53 de California, un proyecto de ley de seguridad de la IA, y que cuando vio a la compañía afirmar que «trabajó para mejorar el proyecto de ley», «literalmente se rió a carcajadas». En una madeja de redes sociales, pasó a llamar a Lehane específicamente el “maestro de las artes oscuras políticas”.
En Washington, eso podría ser un cumplido. En una empresa como OpenAI, cuya misión es “construir una IA que beneficie a toda la humanidad”, suena como una acusación.
Lo que importa mucho más es que incluso la propia gente de OpenAI está en conflicto sobre en qué se están convirtiendo.
Como mi colega Max reportado la semana pasadavarios empleados actuales y anteriores recurrieron a las redes sociales después del lanzamiento de Sora 2, expresando sus dudas, incluido Boaz Barak, investigador de OpenAI y profesor de Harvard, quien escribió sobre Sora 2 que es «técnicamente sorprendente, pero es prematuro felicitarnos por evitar los peligros de otras aplicaciones de redes sociales y deepfakes».
El viernes, Josh Achiam, jefe de alineación de misiones de OpenAI, tuiteó algo aún más notable sobre la acusación de Calvin. Antes de sus comentarios diciendo que eran «posiblemente un riesgo para toda mi carrera», Achiam continuó escribiendo sobre OpenAI: «No podemos hacer cosas que nos conviertan en una potencia aterradora en lugar de una virtuosa. Tenemos un deber y una misión para toda la humanidad. El listón para cumplir con ese deber es notablemente alto».
Eso es . . .algo. Un ejecutivo de OpenAI que cuestiona públicamente si su empresa se está convirtiendo en “una potencia aterradora en lugar de virtuosa” no está a la par de un competidor que dispara o un periodista que hace preguntas. Se trata de alguien que eligió trabajar en OpenAI, que cree en su misión y que ahora reconoce una disaster de conciencia a pesar del riesgo profesional.
Es un momento cristalizador. Puedes ser el mejor operador político en tecnología, un maestro en navegar situaciones imposibles, y aun así terminar trabajando para una empresa cuyas acciones entran cada vez más en conflicto con sus valores declarados, contradicciones que sólo pueden intensificarse a medida que OpenAI avanza hacia la inteligencia synthetic normal.
Me hace pensar que la verdadera pregunta no es si Chris Lehane puede vender la misión de OpenAI. Se trata de si los demás (incluidas, de manera crítica, las demás personas que trabajan allí) todavía lo creen.
 
                       
                       
                       
                       
                       
                      