Mustafa Suleyman, jefe de inteligencia artificial para consumidores de Microsoft, dice que detendrá el desarrollo por completo si la IA avanzada alguna vez amenaza la seguridad humana.
Hablando en el programa The Mishal Husain Show de Bloomberg, Mustafa prometió que el objetivo de Microsoft es construir súper inteligencia alineada con los intereses humanos, no perseguir poder puro a cualquier costo.
"No seguiremos desarrollando un sistema que pueda escaparse de nuestras manos", declaró Mustafa durante la entrevista. Añadió que esta postura no debería ser controvertida, calificándola de obvia, aunque cree que aún es poco común en la industria de la IA.
Microsoft recupera la libertad para construir sistemas avanzados de IA
Mustafa se unió a Microsoft a principios del año pasado después de que la compañía adquiriera la propiedad intelectual y gran parte del equipo detrás de su startup, Inflection AI, después de abandonar OpenAI por herramientas de IA orientadas al consumidor.
Después de la adquisición, a Mustafa se le encomendó la tarea de construir productos que pudieran competir directamente con los modelos mástronque ya existían en el mercado.
Durante gran parte de ese tiempo, su trabajo estuvo sujeto a limitaciones. Los términostracvinculados a la asociación de Microsoft con OpenAI impedían a la empresa desarrollar inteligencia artificial general, deficomo sistemas capaces de funcionar a nivel humano, así como superinteligencia, que superaría las capacidades humanas.
Mustafa afirmó que Microsoft cedió esos derechos a cambio de acceder a los últimos modelos de OpenAI. Este acuerdo también implicó que Microsoft construyera y equiparara centros de datos para OpenAI durante varios años.
Esa estructura cambió en octubre. Un nuevo acuerdo reformuló la relación y devolvió los derechos de desarrollo a Microsoft.
Mustafa afirmó que OpenAI ahora tiene acuerdos de infraestructura con otros socios, como SoftBank y Oracle, para construir más centros de datos de los que Microsoft estaba dispuesto a comprometer. "Ahora tienen acuerdos con SoftBank y muchos otros, como Oracle, para construir más centros de datos de los que Microsoft quería construirles", declaró. "Y, a cambio, tenemos el derecho a desarrollar nuestra propia IA".
Dijo que Microsoft ha seguido siendo un desarrollador de inteligencia artificial de propósito general durante los últimos 18 meses, pero ahora está pasando a un trabajo que podría superar el desempeño humano en todas las tareas.
“Durante los últimos 18 meses, hemos seguido siendo un taller de desarrollo de IA de propósito general, pero ahora podemos trabajar en técnicas y metodologías que tienen el potencial de superar el rendimiento humano en todas las tareas”, dijo . “Por lo tanto, esto representa un cambio para nosotros”.
Suleyman propone un enfoque cauteloso mientras las herramientas siguen sin terminarse
El mes pasado, Mustafa anunció formalmente el proyecto de superinteligencia en una entrada de blog que exponía la postura de Microsoft de que dichos sistemas deben diseñarse para servir a las personas. Otras empresas importantes, como OpenAI y Anthropic PBC, suelen hacer afirmaciones similares sobre la seguridad y el beneficio humano.
“Todos deben decidir qué representan y cómo operan, y no quiero juzgar cómo operan ahora mismo”, dijo. “No veo ninguna evidencia de daños masivos a gran escala”.
A pesar del enfoque a largo plazo en la superinteligencia, Mustafa dijo que el debate actual sigue siendo académico.
Los consumidores esperan asistentes que puedan gestionar tareas como reservar billetes u organizar planes de compras. Los ejecutivos esperan aumentos de productividad. Ninguno de los dos grupos ha alcanzado ese nivel todavía.
Mustafa señaló al asistente de consumo Copilot de Microsoft como prueba. Dijo que sus funciones similares a las de un agente aún se están probando y no siempre funcionan como se espera.
"Todavía estamos experimentando con ello", dijo Mustafa. "Pero cuando funciona, es la cosa más mágica que jamás hayas visto".
Si estás leyendo esto, ya estás al tanto. Sigue leyendo nuestro boletín .

