El año pasado marcó avances impresionantes en la IA generativa, con herramientas como Microsoft Copilot que pueden resumir reuniones perdidas, redactar propuestas comerciales o sugerir menús basados en el contenido de la nevera.
A medida que Microsoft desplegó estos productos a gran escala, surgieron nuevos desafíos y oportunidades en la construcción de IA responsable.
Recientemente, Microsoft lanzó su primer Informe Anual de Transparencia de IA Responsable para clarificar su enfoque. La compañía también introdujo nuevas herramientas en Azure AI para clientes empresariales y desarrolladores, fortaleciendo la calidad de las salidas de IA y protegiendo contra usos maliciosos.
Natasha Crampton, Directora Principal de IA Responsable de Microsoft, destaca: «La IA responsable no puede ser una idea tardía. Debe integrarse desde la concepción del producto».
Esto se refleja en el Estándar de IA Responsable de Microsoft, seguido por todos los empleados involucrados en aplicaciones de IA generativa.
Evolución continua y rapidez
El desarrollo de nuevos productos de IA es dinámico y ha requerido una rápida integración del feedback del cliente. Esto llevó a Microsoft a ofrecer diferentes estilos de conversación en Copilot para Bing, adaptando la experiencia según las necesidades del usuario.
Centralización para escalar rápidamente
Con el lanzamiento de Microsoft Copilot y su integración en múltiples productos, la compañía centralizó su sistema para asegurar que todos los lanzamientos mantengan un estándar elevado. Este enfoque unificado incluye la evaluación de riesgos en todas las etapas del desarrollo y lanzamiento del producto.
Transparencia en la procedencia de la información
En respuesta al desafío de deepfakes, Microsoft se ha asociado con otras empresas para establecer compromisos voluntarios que combatan su uso engañoso. La compañía también ha implementado capacidades de procedencia de medios para verificar la autenticidad de contenidos generados por IA.
Empoderamiento de clientes con herramientas de RAI
Microsoft ha puesto a disposición de los clientes herramientas utilizadas internamente para mejorar la seguridad de los sistemas de IA generativa. Esto incluye Azure AI Content Safety, que ayuda a identificar y filtrar contenido no deseado.
Anticipación a posibles usos maliciosos
Con el aumento en la sofisticación de la tecnología, Microsoft ha desarrollado nuevos modelos para detectar y bloquear intentos maliciosos de manipulación de sistemas de IA.
Información sobre los límites de la IA
A medida que la IA genera resultados más complejos, es crucial informar a los usuarios sobre sus limitaciones y posibles errores.
Sarah Bird, Directora de Producto Principal de IA Responsable de Microsoft, subraya: «Debemos ser humildes al reconocer que no sabemos cómo se utilizará esta tecnología, por lo que necesitamos escuchar a los usuarios».
Con estos avances, Microsoft continúa liderando en la integración de IA responsable a gran escala, adaptándose a nuevos desafíos y regulaciones para mejorar continuamente los sistemas de IA que ofrecen experiencias seguras y confiables para todos.
