MDRAI → Máster en Diseño para una IA Responsable

¿Qué se necesita para diseñar sistemas basados en IA de forma responsable y creativa?
Formamos profesionales con las habilidades para anticipar riesgos, maximizar oportunidades e implementar sistemas basados en IA de forma ética, responsable e imaginativa desde las empresas a la sociedad.

Próximo año académico 26-27
Inicio — Fin sept  26
Final — Mitad junio 27
Graduación — Fin julio  27
Duración— 400 horas
ECTS — 60 créditos
Campus — Barcelona
Idioma — English
Modalidad — Blended learning
Sesiones presenciales en Barcelona
Kick-off:
1 semana fin sept 26
Residencia Term 2:
8 semanas entre feb-mar 27 
Proyectos finales + Grad show: 
1 semana mitad junio 27
Sesiones online sincrónicas
Oct 26 — Ene  27
Abril — Inicio junio 27
Horario
Online:
Lun-Jue, de 16h a 19h CET
Presencial:
Lun-Jue, de 16h a 20h CET
Dedicación:
Clases (sincrónicas): 12 h/semana
Tareas/proyectos (asincrónicas): 8 h/semana
Precio
Año académico 26-27
13.450€
+500€ en derechos de matrícula
Métodos de pago:
Único o fraccionado.
Más info
Dirección
Andrés Colmenares
Coordinación
Martí Ramírez

Introducción

MDRAI ofrece un contexto ecléctico, riguroso y evolutivo para reimaginar cómo diseñamos (y rediseñamos) los sistemas basados en IA para futuros más justos, transparentes y sostenibles.

Un programa pionero para líderes de IA responsable y con visión de futuro.
MDRAI es un programa pionero de aprendizaje combinado, creado en colaboración con IAM, un laboratorio de investigación creativa y diseño estratégico que trabaja con organizaciones para desarrollar innovación responsable utilizando futuros como herramientas de diseño, con más de una década de experiencia en el desarrollo de experiencias de aprendizaje colaborativo en tecnología y sociedad.

Una nueva forma de aprender a pensar a través de la IA, más allá de las expectativas.
El Máster en Diseño para una IA Responsable se centra en el desarrollo de las habilidades y los conocimientos esenciales necesarios para diseñar, desarrollar e integrar sistemas de IA de forma ética, responsable y creativa.

Impulsando la IA responsable, más allá de las listas de verificación
Aprenderá a anticipar y mitigar los riesgos e impactos negativos de la IA, a la vez que maximiza las oportunidades y los resultados positivos que los sistemas de IA pueden ofrecer a las empresas, los gobiernos y la sociedad en general.

Preparando profesionales para el cambio a nivel de sistemas, más allá de una caja negra
Al explorar las dimensiones sociales, culturales, ecológicas, éticas y técnicas en evolución de los diferentes tipos de sistemas de IA, los participantes aprenden a diseñar implementaciones, estrategias creativas, metodologías, herramientas de alfabetización y narrativas tecnológicas responsables.

Internet Tour por Mario Santamaría, MDRAI + MDEF 

Para quién es MDRAI

Diseñado para futuros líderes de IA responsable que buscan navegar la complejidad y dar forma a los sistemas basados en IA con responsabilidad, creatividad y conocimientos interdisciplinarios.

Para profesionales que buscan explorar la complejidad de la IA.
El Máster en Diseño para una IA Responsable está diseñado para personas que desean profundizar en las dimensiones sociales, éticas y técnicas de las tecnologías emergentes. MDRAI está dirigido a diseñadores, tecnólogos, estrategas e investigadores que reconocen que la innovación responsable requiere pensamiento crítico, práctica colaborativa y la capacidad de trabajar en diferentes disciplinas.

Para quienes buscan una transformación profesional y mejorar sus habilidades en IA Responsable
El programa es ideal para quienes buscan expandir o adaptar sus carreras hacia la IA Responsable, independientemente de su formación en diseño, negocios, ingeniería, ciencia de datos, políticas o humanidades. Los participantes comparten el compromiso de comprender cómo funcionan los sistemas basados en IA, cómo influyen en la sociedad y cómo guiar su adopción responsable en entornos empresariales o del sector público.

Para profesionales que necesitan flexibilidad y profundidad.
Con su formato combinado, MDRAI apoya a quienes buscan compaginar sus compromisos profesionales con un aprendizaje riguroso y centrado en comunidad. Las sesiones semanales en línea y las residencias presenciales crean un ritmo dinámico que fomenta la participación continua, la colaboración interdisciplinaria y la experimentación práctica con colegas de todo el mundo.

Para futuros líderes de tecnología responsable y equitativa
Este programa está dirigido a personas que desean ir más allá de los principios y las listas de verificación para generar un impacto tangible y valioso con los sistemas basados en IA. Está diseñado para personas motivadas para diseñar, criticar y gestionar sistemas basados en IA con la responsabilidad y la equidad en mente, preparándose para influir en cómo se concibe, construye e implementa la IA en diversos sectores.

Profesorado

more faculty

Andres Colmenares

IAM

Director del programa y facilitador de múltiples módulos

Kasia Odrozek

UNESCO

Asesora y líder de la ética y los impactos de los sistemas de inteligencia artificial.

Buse Çetin

AI Forensics

Dirige un curso sobre políticas de IA

Martín Pérez Comisso, PhD

Universidad de Chile

Imparte curso sobre sistemas sociotécnicos

Caroline Sinders

Convocation Design + Research

Imparte curso sobre diseño centrado en los derechos humanos

Dasha Simons

University of Amsterdam & IBM

Imparte curso sobre gobernanza de la IA y ética de la IA en las corporaciones

Abdelrahman (Abdo) Hassan

Decathlon

Dirige cursos sobre inteligencia de decisiones y toma de decisiones críticas.

Ayşegül Güzel

AI of Your Choice

Dirige el Laboratorio de Habilidades en evaluaciones de riesgos e impacto

Ariel Guersenzvaig, PhD

Elisava

Imparte curso sobre Ética de la Tecnología y el Diseño en el MDRAI y AI Ethics and Philosophy en el MAIAD.

Lauren Benjamin Mushro, PhD

Sapien AI, Museum of Science, Aspen Institute

Asesora y líder en gobernanza de IA

Jillian Powers, PhD

Slalom

Imparte curso sobre estrategias de implementación responsable de IA

Eryk Salvaggio

University of Cambridge

Dirige cursos sobre IA crítica

Leandro Ucciferri

Ranking Digital Rights

Lidera un seminario sobre derechos humanos y digitales

Katrin Fritsch

Green Web Foundation

Profesora invitada y asesora sobre los impactos ambientales de la tecnología

Enfoque

Abordando la complejidad mediante la colaboración

El enfoque de MDRAI se centra en el aprendizaje transdisciplinario y colaborativo, ofreciendo a los participantes un contexto único para desarrollar las habilidades y capacidades necesarias para comprender y analizar temas complejos, especializándose en el diseño e implementación de estrategias, metodologías y técnicas de toma de decisiones para sistemas basados en IA responsable en organizaciones del sector público o empresarial.

Conectando la teoría con la práctica en tecnología responsable

El plan de estudios está diseñado para crear un vínculo entre la teoría y la práctica mediante la investigación creativa, la narrativa crítica y el diseño estratégico. Esto permite a los participantes explorar y comprender las complejas dimensiones sociales, éticas y técnicas de la IA, y traducir estos conocimientos en narrativas y proyectos claros e impactantes que contribuyan al desarrollo de la tecnología responsable, interactuando con públicos diversos.

Diseño como toma de decisiones

El programa enmarca el diseño como una práctica de toma de decisiones, donde cada decisión en la investigación, estrategia o implementación de sistemas de IA conlleva implicaciones éticas, sociales y técnicas. Los participantes aprenden a abordar el diseño sistemáticamente, considerando las compensaciones, anticipando los riesgos e integrando valores en los sistemas sociotécnicos, garantizando que las decisiones sean informadas, responsables y estén alineadas con los principios de la IA Responsable.

Impulsando la IA Responsable más allá de las listas de verificación

MDRAI aborda la IA Responsable como una disciplina activa y práctica, más que como una simple lista de verificación estática de principios. Ponemos énfasis en la participación, la reflexión y la adaptación continuas, integrando consideraciones éticas, sociales y técnicas en cada etapa del diseño y la implementación. Los participantes aprenden a gestionar la complejidad, a hacer concesiones informadas y a traducir directrices abstractas en estrategias, sistemas e intervenciones tangibles con impacto real.

Visita a IAAC-Valldaura

Formato

MDRAI es un programa de aprendizaje combinado, ofreciendo flexibilidad en términos de ubicación y horario al tiempo que maximiza los resultados del aprendizaje, la colaboración y la capacidad de producir un trabajo de diseño de IA significativo y responsable.

MDRAI adopta un formato de aprendizaje semipresencial que combina la flexibilidad de las sesiones en línea con la inmersión presencial. Con una duración de 9 meses (de finales de septiembre a mediados de junio), el programa permite estudiar a tiempo parcial, ideal para profesionales en activo, con una dedicación de aproximadamente 20 horas semanales, 12 de las cuales se dedican a sesiones sincrónicas de lunes a jueves (16:00-20:00 CET). Esta flexibilidad facilita la diversidad de estilos de vida y permite a los estudiantes compaginar sus compromisos profesionales con su crecimiento académico.

Cada semana, los participantes participan en sesiones en línea sincrónicas que fomentan la participación continua, la colaboración entre pares y el intercambio interdisciplinario, independientemente de la ubicación. Esta combinación de modalidades puede aumentar la participación, la motivación y la retención de conocimientos en comparación con los formatos tradicionales. Los recursos en línea siguen siendo accesibles y los estudiantes pueden revisar los materiales cuando lo necesiten, lo que fomenta una comprensión más profunda y un aprendizaje a largo plazo.

El formato semipresencial se complementa con tres residencias presenciales en Barcelona, ​​que ofrecen colaboración inmersiva y trabajo práctico. La semana de inicio, a finales de septiembre, sienta las bases para el aprendizaje colaborativo; una residencia de 9 semanas, entre febrero y marzo, permite talleres semanales y sprints de diseño para proyectos finales, que se realizan de lunes a jueves (16:00-20:00 CET); y una última semana, a mediados de junio, se centra en las presentaciones de proyectos finales y la participación en el Grad Showcase de Elisava.

Al combinar la escalabilidad y la comodidad del aprendizaje en línea con la riqueza de la interacción presencial, el programa fomenta un fuerte sentido de comunidad, el apoyo entre pares y una cultura compartida de investigación creativa. Modelos de aprendizaje híbrido como este fomentan una mejor interacción entre pares y el aprendizaje comunitario, combinando las ventajas del acceso remoto con los beneficios sociales y motivacionales de la interacción presencial.

Próximos eventos

21 y 22 ene, 2026  

Congreso y workshops

propmt:UX 2026

Mié, 11 feb, 2026

Masters’ Talks

Karel Martens & Thomas Castro

Unbound

Lun, 2 marzo , 2026

Beyond Sessions 

Gaston Welisch

Augury Birdwalk

9 — 11 abril, 2026  

Workshop  

Núria Nia

IA & Performance

Estructura del programa

1 Colaboratorio de Investigación Creativa e Imaginación

En este módulo, investigamos y analizamos temas complejos relacionados con la imaginación sociológica de la IA mediante métodos creativos, colaborativos e intuitivos. A través del pensamiento crítico reflexivo, examinarás las narrativas que configuran el futuro tecnológico y desarrollarás alternativas responsables, fomentando visiones pluralistas de la IA que cuestionen supuestos ocultos.

1.1
Mejores metáforas de la IA

En este curso, desarrollamos un proyecto de investigación colaborativa para investigar cómo las metáforas influyen en la comprensión, la comunicación y el diseño de la IA. Los participantes exploran los significados sociales pasados ​​y presentes de las metáforas de la IA para imaginar alternativas que se alineen con visiones más equitativas, ecológicas y culturalmente arraigadas del concepto de inteligencia artificial.

1.2
Digital garden(ing)

En este curso, desarrollamos la práctica de cultivar un espacio personal en línea donde las ideas crezcan, evolucionen e interconecten con el tiempo. Mediante ejercicios prácticos, exploración colaborativa y escritura reflexiva, los participantes aprenden a organizar el conocimiento, crear flujos de trabajo creativos y diseñar ecosistemas digitales que fomenten la curiosidad, el aprendizaje y el pensamiento a largo plazo.

1.3
Read/Write club

En este curso, abordamos lecturas que examinan críticamente conceptos clave de la IA desde perspectivas artísticas, culturales y filosóficas. Los participantes escriben ensayos, tanto individual como colaborativamente, explorando cómo artistas y pensadores cuestionan la estética, la política y el impacto de la IA en los imaginarios sociales. Los debates y las reflexiones compartidas profundizan la comprensión y fomentan la comunicación creativa y crítica de perspectivas

En este curso, desarrollamos un proyecto de investigación colaborativa para investigar cómo las metáforas influyen en la comprensión, la comunicación y el diseño de la IA. Los participantes exploran los significados sociales pasados ​​y presentes de las metáforas de la IA para imaginar alternativas que se alineen con visiones más equitativas, ecológicas y culturalmente arraigadas del concepto de inteligencia artificial.

En este curso, desarrollamos la práctica de cultivar un espacio personal en línea donde las ideas crezcan, evolucionen e interconecten con el tiempo. Mediante ejercicios prácticos, exploración colaborativa y escritura reflexiva, los participantes aprenden a organizar el conocimiento, crear flujos de trabajo creativos y diseñar ecosistemas digitales que fomenten la curiosidad, el aprendizaje y el pensamiento a largo plazo.

En este curso, abordamos lecturas que examinan críticamente conceptos clave de la IA desde perspectivas artísticas, culturales y filosóficas. Los participantes escriben ensayos, tanto individual como colaborativamente, explorando cómo artistas y pensadores cuestionan la estética, la política y el impacto de la IA en los imaginarios sociales. Los debates y las reflexiones compartidas profundizan la comprensión y fomentan la comunicación creativa y crítica de perspectivas

2 Decodificando Sistemas de IA

En este módulo, ofrecemos una comprensión multidimensional de la IA como sistemas complejos. Mediante análisis sociotécnico, estudios de temporalidad, investigación crítica de la IA y cursos orientados al negocio, los participantes exploran las capacidades, limitaciones e impactos de la IA, sentando las bases para una adopción responsable, la toma de decisiones y una comunicación explicable en diversos contextos.

2.1
Introducción a los sistemas sociotécnicos

En este curso, exploramos la IA desde una perspectiva sociotécnica, examinando el diseño, el funcionamiento, el uso y el ciclo de vida de la tecnología. A través de la reflexión y el análisis, consideramos las diversas dimensiones sociales, culturales y técnicas que configuran el funcionamiento de estos sistemas y su impacto en la sociedad.

2.2
Temporalidad de la IA

En este curso exploramos nuestra relación con el tiempo como eje oculto de la IA, el diseño y la sociedad. Los participantes examinan múltiples temporalidades, rastrean los ritmos materiales y sociales de la IA y aprenden de perspectivas afrodiaspóricas e indígenas. A través de la reflexión, estudios de caso y ejercicios especulativos, desarrollan herramientas para integrar la temporalidad en el diseño de IA responsable, descolonial y pluriversal.

2.3
Fundamentos de IA para empresas: Inteligencia de decisiones

En este curso, desarrollamos una sólida comprensión de la inteligencia humana y artificial, rastreando las raíces históricas, sociales y políticas de la IA. Los participantes redefinen la inteligencia como la toma de decisiones conjunta entre humanos, datos e instituciones, explorando el concepto de inteligencia de decisiones y aplicando el pensamiento ecosistémico para abordar críticamente las infraestructuras tecnológicas, el poder y los sesgos, fomentando así la toma de decisiones responsable en contextos complejos.

2.4
Fundamentos de IA para empresas: Adopción de IA en corporaciones

En este curso, examinamos cómo las empresas adoptan, gestionan y debaten la IA en la práctica. Mediante estudios de caso, debates y actividades experienciales, los participantes desarrollan perspectivas cruciales y estrategias prácticas para la adopción responsable de la IA en el ámbito empresarial.

2.5
Fundamentos de IA para empresas: Tendencias en la implementación de IA

En este curso, exploramos la IA como una fuerza económica emergente, examinando las narrativas y los movimientos que configuran el futuro de los negocios, la sociedad y el clima. Mediante métodos basados ​​en proyectos, los participantes analizan tendencias, critican supuestos y desarrollan contraescenarios. Las sesiones con invitados y los ejercicios prácticos guían a los participantes para traducir las narrativas de la IA en casos de negocio responsables con análisis de riesgos e indicadores clave de rendimiento (KPI) planetarios.

2.6
Estudios críticos de IA

En este curso, examinamos críticamente los Modelos Extenso de Lenguaje y el Procesamiento del Lenguaje Natural, explorando sus dimensiones técnicas, históricas y sociales. Los participantes aprenden a desmitificar los sistemas de IA, analizando su infraestructura e impacto social, y situando las tecnologías en contextos culturales e históricos más amplios, desarrollando una práctica fundamental en el análisis crítico y sociotécnico de la IA.

En este curso, exploramos la IA desde una perspectiva sociotécnica, examinando el diseño, el funcionamiento, el uso y el ciclo de vida de la tecnología. A través de la reflexión y el análisis, consideramos las diversas dimensiones sociales, culturales y técnicas que configuran el funcionamiento de estos sistemas y su impacto en la sociedad.

En este curso exploramos nuestra relación con el tiempo como eje oculto de la IA, el diseño y la sociedad. Los participantes examinan múltiples temporalidades, rastrean los ritmos materiales y sociales de la IA y aprenden de perspectivas afrodiaspóricas e indígenas. A través de la reflexión, estudios de caso y ejercicios especulativos, desarrollan herramientas para integrar la temporalidad en el diseño de IA responsable, descolonial y pluriversal.

En este curso, desarrollamos una sólida comprensión de la inteligencia humana y artificial, rastreando las raíces históricas, sociales y políticas de la IA. Los participantes redefinen la inteligencia como la toma de decisiones conjunta entre humanos, datos e instituciones, explorando el concepto de inteligencia de decisiones y aplicando el pensamiento ecosistémico para abordar críticamente las infraestructuras tecnológicas, el poder y los sesgos, fomentando así la toma de decisiones responsable en contextos complejos.

En este curso, examinamos cómo las empresas adoptan, gestionan y debaten la IA en la práctica. Mediante estudios de caso, debates y actividades experienciales, los participantes desarrollan perspectivas cruciales y estrategias prácticas para la adopción responsable de la IA en el ámbito empresarial.

En este curso, exploramos la IA como una fuerza económica emergente, examinando las narrativas y los movimientos que configuran el futuro de los negocios, la sociedad y el clima. Mediante métodos basados ​​en proyectos, los participantes analizan tendencias, critican supuestos y desarrollan contraescenarios. Las sesiones con invitados y los ejercicios prácticos guían a los participantes para traducir las narrativas de la IA en casos de negocio responsables con análisis de riesgos e indicadores clave de rendimiento (KPI) planetarios.

En este curso, examinamos críticamente los Modelos Extenso de Lenguaje y el Procesamiento del Lenguaje Natural, explorando sus dimensiones técnicas, históricas y sociales. Los participantes aprenden a desmitificar los sistemas de IA, analizando su infraestructura e impacto social, y situando las tecnologías en contextos culturales e históricos más amplios, desarrollando una práctica fundamental en el análisis crítico y sociotécnico de la IA.

3 Análisis de los Impactos de la IA

En este módulo, capacitamos a los participantes para analizar los impactos sociales, culturales y ecológicos de los sistemas de IA desde una perspectiva ética, de derechos humanos y de justicia. Combinando marcos conceptuales, análisis de riesgos y otras habilidades prácticas, los participantes exploran los derechos digitales, la justicia epistémica, la sostenibilidad digital y la ética anticipatoria, aplicando herramientas y métodos críticos para evaluar, auditar y probar sistemas de IA.

3.1
Marcos para la ética, los derechos humanos y la justicia

En este módulo, exploramos marcos éticos, de derechos humanos y de justicia para evaluar el impacto de la IA a escala individual, social y planetaria. Los participantes examinan críticamente las dimensiones sociales, económicas, ambientales y no humanas de los impactos de la IA para identificar desigualdades y desarrollar un razonamiento anticipatorio, responsable e interseccional en torno a las aplicaciones actuales y emergentes de la IA.

3.2
Perspectivas sobre los impactos de la IA

En esta pista examinamos los impactos sociales, culturales y económicos de la IA en temas como el trabajo, el bienestar, la cultura y la democracia a través de una serie de conferencias invitadas con destacados expertos provenientes del mundo académico, los negocios, las artes, las políticas y la tecnología.

3.3
Laboratorio de habilidades

En este programa, capacitamos a los participantes con métodos críticos y técnicos para evaluar y mitigar los riesgos éticos, sociales y ambientales de la IA. Los participantes diseñan intervenciones y herramientas de rendición de cuentas para mejorar la transparencia, la equidad y la sostenibilidad, aplicando el pensamiento anticipatorio y sistémico para desarrollar estrategias de innovación responsable para la implementación de la IA.

En este módulo, exploramos marcos éticos, de derechos humanos y de justicia para evaluar el impacto de la IA a escala individual, social y planetaria. Los participantes examinan críticamente las dimensiones sociales, económicas, ambientales y no humanas de los impactos de la IA para identificar desigualdades y desarrollar un razonamiento anticipatorio, responsable e interseccional en torno a las aplicaciones actuales y emergentes de la IA.

En esta pista examinamos los impactos sociales, culturales y económicos de la IA en temas como el trabajo, el bienestar, la cultura y la democracia a través de una serie de conferencias invitadas con destacados expertos provenientes del mundo académico, los negocios, las artes, las políticas y la tecnología.

En este programa, capacitamos a los participantes con métodos críticos y técnicos para evaluar y mitigar los riesgos éticos, sociales y ambientales de la IA. Los participantes diseñan intervenciones y herramientas de rendición de cuentas para mejorar la transparencia, la equidad y la sostenibilidad, aplicando el pensamiento anticipatorio y sistémico para desarrollar estrategias de innovación responsable para la implementación de la IA.

4 Navegando la Gobernanza, Políticas y Seguridad de la IA

En este módulo, desarrollamos una comprensión crítica de los fundamentos legales, éticos y sociales de la IA Responsable. A través de conferencias, casos prácticos, debates y talleres, los estudiantes analizan el panorama global de políticas de IA, los principios éticos de la IA y los marcos de gobernanza, con especial atención a la Ley de IA de la UE, preparándose para evaluar y guiar prácticas de IA responsables.

4.1
Fundamentos de la IA responsable

En este curso exploramos el significado de la responsabilidad en la investigación y la innovación en torno a las tecnologías digitales. Los participantes reflexionan y evalúan diversos sistemas sociotécnicos a nivel mundial, aplicando marcos para el diseño responsable. Mediante debates y análisis, examinan la investigación y los proyectos de IA donde la responsabilidad se integra activamente como principio rector.

4.2
Política y regulación de la IA

En este curso, estudiamos las iniciativas políticas globales y europeas en materia de IA, incluyendo la Ley de IA de la UE y las directrices sobre IA de confianza. Los participantes analizan marcos regulatorios, debates y casos prácticos, desarrollando una visión crítica de cómo las políticas influyen en la adopción ética de la IA, las prácticas corporativas y los resultados sociales, preparándose para desenvolverse e influir en el panorama de políticas de IA de forma responsable.

4.3
Gobernanza y seguridad de la IA

En este curso nos centramos en el diseño e implementación de estrategias de gobernanza, cumplimiento normativo y seguridad para sistemas de IA. Mediante talleres, casos prácticos y ejercicios colaborativos, los participantes desarrollan herramientas para garantizar la transparencia, la rendición de cuentas y la coherencia ética, traduciendo los principios legales y éticos en prácticas viables para una implementación responsable y segura de la IA en contextos públicos y privados.

En este curso exploramos el significado de la responsabilidad en la investigación y la innovación en torno a las tecnologías digitales. Los participantes reflexionan y evalúan diversos sistemas sociotécnicos a nivel mundial, aplicando marcos para el diseño responsable. Mediante debates y análisis, examinan la investigación y los proyectos de IA donde la responsabilidad se integra activamente como principio rector.

En este curso, estudiamos las iniciativas políticas globales y europeas en materia de IA, incluyendo la Ley de IA de la UE y las directrices sobre IA de confianza. Los participantes analizan marcos regulatorios, debates y casos prácticos, desarrollando una visión crítica de cómo las políticas influyen en la adopción ética de la IA, las prácticas corporativas y los resultados sociales, preparándose para desenvolverse e influir en el panorama de políticas de IA de forma responsable.

En este curso nos centramos en el diseño e implementación de estrategias de gobernanza, cumplimiento normativo y seguridad para sistemas de IA. Mediante talleres, casos prácticos y ejercicios colaborativos, los participantes desarrollan herramientas para garantizar la transparencia, la rendición de cuentas y la coherencia ética, traduciendo los principios legales y éticos en prácticas viables para una implementación responsable y segura de la IA en contextos públicos y privados.

5 Diseño para la Implementación Responsable de IA

En este módulo, los participantes integran prácticas responsables de IA en todo el proceso de IA, desde la recopilación de datos hasta la implementación y la monitorización. Mediante diversas metodologías de diseño, analizan y abordan los riesgos éticos, sociales y sistémicos, desarrollando estrategias para la equidad, la transparencia, la rendición de cuentas y la inclusión en aplicaciones de IA en el mundo real.

5.1
Ética de la IA aplicada: Filosofía de la tecnología en la práctica

En este curso, introducimos la filosofía y la ética de la tecnología, explorando perspectivas sobre la neutralidad tecnológica, el determinismo y el diseño normativo. Los participantes se involucran con teorías éticas, desde la deontología hasta la ética del cuidado y el Buen Vivir, y las aplican mediante análisis de mediación, evaluaciones de impacto y ejercicios de ética profesional, desarrollando habilidades para evaluar críticamente y aplicar la tecnología de forma responsable en la práctica.

5.2
Ética de la IA aplicada: Herramientas

En este curso, guiamos a los participantes para que exploren la situación personal, los roles organizacionales y las estrategias orientadas al diseño para escalar prácticas éticas. Mediante la reflexión, el juego de roles y la creación de prototipos prácticos, los participantes identifican puntos débiles, aprovechan sus fortalezas y desarrollan enfoques prácticos para integrar prácticas de IA responsables y una ética inclusiva y eficaz en contextos reales.

5.3
Laboratorio de Diseño e Inteligencia Artificial Responsable

En este curso, desmitificamos las definiciones, los marcos y las prácticas de la IA, guiando a los participantes a través de la normativa y los ciclos de vida de los sistemas de IA en entornos corporativos. Mediante ejercicios, casos prácticos y análisis crítico, los participantes exploran la IA responsable, la gobernanza, la evaluación y los imaginarios sociotécnicos, desarrollando habilidades prácticas para auditar, diseñar y operar la IA de forma responsable mientras se desenvuelven en la dinámica organizacional.

5.4
Diseño de gobernanza y estrategia de IA: Integración de la responsabilidad en la IA empresarial

En este curso, proporcionamos a los participantes habilidades clave para integrar prácticas responsables en la estrategia de IA y su implementación. Mediante casos prácticos y ejercicios prácticos, los participantes aprenden a alinear la implementación de la IA con principios éticos, a crear marcos de gobernanza, a gestionar riesgos e a integrar la transparencia, la equidad y la rendición de cuentas a lo largo del ciclo de vida de la IA.

5.5
Diseño para una IA confiable

En este curso, exploramos cómo el diseño puede impulsar una IA confiable al traducir valores en tecnología y cultura material. Los participantes utilizan un pensamiento ético imaginativo y basado en prototipos para resolver conflictos de valores, implementar principios como la equidad, la privacidad y la transparencia, y desarrollar estrategias prácticas para los responsables de la toma de decisiones y los equipos de desarrollo de IA, yendo más allá de la mitigación de riesgos hacia un diseño proactivo centrado en el valor.

En este curso, introducimos la filosofía y la ética de la tecnología, explorando perspectivas sobre la neutralidad tecnológica, el determinismo y el diseño normativo. Los participantes se involucran con teorías éticas, desde la deontología hasta la ética del cuidado y el Buen Vivir, y las aplican mediante análisis de mediación, evaluaciones de impacto y ejercicios de ética profesional, desarrollando habilidades para evaluar críticamente y aplicar la tecnología de forma responsable en la práctica.

En este curso, guiamos a los participantes para que exploren la situación personal, los roles organizacionales y las estrategias orientadas al diseño para escalar prácticas éticas. Mediante la reflexión, el juego de roles y la creación de prototipos prácticos, los participantes identifican puntos débiles, aprovechan sus fortalezas y desarrollan enfoques prácticos para integrar prácticas de IA responsables y una ética inclusiva y eficaz en contextos reales.

En este curso, desmitificamos las definiciones, los marcos y las prácticas de la IA, guiando a los participantes a través de la normativa y los ciclos de vida de los sistemas de IA en entornos corporativos. Mediante ejercicios, casos prácticos y análisis crítico, los participantes exploran la IA responsable, la gobernanza, la evaluación y los imaginarios sociotécnicos, desarrollando habilidades prácticas para auditar, diseñar y operar la IA de forma responsable mientras se desenvuelven en la dinámica organizacional.

En este curso, proporcionamos a los participantes habilidades clave para integrar prácticas responsables en la estrategia de IA y su implementación. Mediante casos prácticos y ejercicios prácticos, los participantes aprenden a alinear la implementación de la IA con principios éticos, a crear marcos de gobernanza, a gestionar riesgos e a integrar la transparencia, la equidad y la rendición de cuentas a lo largo del ciclo de vida de la IA.

En este curso, exploramos cómo el diseño puede impulsar una IA confiable al traducir valores en tecnología y cultura material. Los participantes utilizan un pensamiento ético imaginativo y basado en prototipos para resolver conflictos de valores, implementar principios como la equidad, la privacidad y la transparencia, y desarrollar estrategias prácticas para los responsables de la toma de decisiones y los equipos de desarrollo de IA, yendo más allá de la mitigación de riesgos hacia un diseño proactivo centrado en el valor.

6 Laboratorio de Diseño Crítico y Medios

En este módulo, desarrollamos la capacidad de los participantes para sintetizar y compartir conocimientos de forma crítica, creativa y colaborativa. A través de debates, talleres y retos editoriales, los participantes practican el diseño crítico y la narrativa, interactúan con diversas perspectivas y cultivan la conciencia de los contextos sociales, culturales y ecológicos, fomentando un entorno de aprendizaje abierto, distribuido e interactivo.

6.1
Medios experimentales y prácticas críticas

En este módulo exploramos los medios como espacio para la experimentación y la investigación crítica de la IA. Los participantes utilizan la creación iterativa de prototipos, el diseño especulativo y la programación creativa para cuestionar los sistemas culturales, sociales y tecnológicos, desarrollando resultados que desafían sus suposiciones sobre la IA responsable.

6.2
Ecosistemas de conocimiento colaborativo

En esta área, cocreamos un entorno de aprendizaje distribuido y abierto para procesar los conocimientos adquiridos en otros módulos. Mediante talleres grupales, mentoría entre pares y proyectos interdisciplinarios, los participantes desarrollan estrategias para la síntesis de conocimientos, la narración colaborativa y la práctica reflexiva, fomentando la interacción con las comunidades y conectando contextos sociales, ecológicos y culturales.

6.3
Medios, tecnología e imaginación social

En este módulo, cuestionamos cómo los medios y la tecnología moldean las percepciones, los valores y el futuro social. Los participantes analizan críticamente y prototipan intervenciones que exploran los imaginarios sociotécnicos emergentes, conectando la práctica creativa con la ética, las políticas públicas y la gobernanza, a la vez que experimentan con formatos que comunican perspectivas a públicos diversos.

En este módulo exploramos los medios como espacio para la experimentación y la investigación crítica de la IA. Los participantes utilizan la creación iterativa de prototipos, el diseño especulativo y la programación creativa para cuestionar los sistemas culturales, sociales y tecnológicos, desarrollando resultados que desafían sus suposiciones sobre la IA responsable.

En esta área, cocreamos un entorno de aprendizaje distribuido y abierto para procesar los conocimientos adquiridos en otros módulos. Mediante talleres grupales, mentoría entre pares y proyectos interdisciplinarios, los participantes desarrollan estrategias para la síntesis de conocimientos, la narración colaborativa y la práctica reflexiva, fomentando la interacción con las comunidades y conectando contextos sociales, ecológicos y culturales.

En este módulo, cuestionamos cómo los medios y la tecnología moldean las percepciones, los valores y el futuro social. Los participantes analizan críticamente y prototipan intervenciones que exploran los imaginarios sociotécnicos emergentes, conectando la práctica creativa con la ética, las políticas públicas y la gobernanza, a la vez que experimentan con formatos que comunican perspectivas a públicos diversos.

7 Proyecto Final

En este módulo, guiamos a los participantes en el desarrollo y la comunicación de herramientas de diseño críticas para una IA Responsable que contribuya al bien común. Combinando investigación, diseño y reflexión crítica, los participantes desarrollan proyectos transdisciplinarios utilizando diversos medios y metodologías, reciben retroalimentación iterativa y presentan su trabajo públicamente para demostrar las habilidades, los conocimientos y las prácticas éticas adquiridas a lo largo del programa.

7.1
Fase 1: Investigación y conceptualización

En esta fase, los participantes realizan investigaciones, exploran contextos y definen los objetivos del proyecto, utilizando retroalimentación iterativa para refinar preguntas, marcos y metodologías que guiarán el diseño y desarrollo de su proyecto final.

7.2
Fase 2: Diseño y creación de prototipos

En esta fase, los participantes traducen la investigación en propuestas prácticas mediante ficciones de diseño, herramientas, narrativas y experimentos mediáticos. Aplican métodos transdisciplinarios y técnicas creativas para desarrollar prototipos, probando ideas de forma iterativa e integrando principios éticos en todo el proyecto.

7.3
Fase 3: Comunicación y participación pública

En esta fase, desarrollamos estrategias para compartir proyectos con un público más amplio. Los participantes elaboran narrativas convincentes, documentan procesos y presentan hallazgos en diversos formatos, desde informes hasta video-ensayos. Se hace hincapié en la accesibilidad, el impacto público y el diálogo reflexivo, culminando con presentaciones internas y públicas con retroalimentación de compañeros, tutores y expertos externos.

En esta fase, los participantes realizan investigaciones, exploran contextos y definen los objetivos del proyecto, utilizando retroalimentación iterativa para refinar preguntas, marcos y metodologías que guiarán el diseño y desarrollo de su proyecto final.

En esta fase, los participantes traducen la investigación en propuestas prácticas mediante ficciones de diseño, herramientas, narrativas y experimentos mediáticos. Aplican métodos transdisciplinarios y técnicas creativas para desarrollar prototipos, probando ideas de forma iterativa e integrando principios éticos en todo el proyecto.

En esta fase, desarrollamos estrategias para compartir proyectos con un público más amplio. Los participantes elaboran narrativas convincentes, documentan procesos y presentan hallazgos en diversos formatos, desde informes hasta video-ensayos. Se hace hincapié en la accesibilidad, el impacto público y el diálogo reflexivo, culminando con presentaciones internas y públicas con retroalimentación de compañeros, tutores y expertos externos.

Debido a nuestro interés por mejorar constantemente el programa y a la realidad profesional de nuestros docentes, nos reservamos el derecho a realizar cambios en el contenido y en el profesorado del máster.

Proyectos destacados

Ganador de GRAILS 2025

DAIRE

Proyecto Final

  • Patricia Amaro
  • Mela Gómez Mogollón
  • Netta Tzin
  •  MDRAI 24

Empirical Lab for Critical AI Literacy

Proyecto final

  • Tatiana Pilnik
  •  MDRAI 24

Alumni destacadas MDRAI 25

Patricia Amaro

Patricia es líder global en comercio electrónico y transformación digital, conocida por redefinir cómo Unilever, Reckitt y Mars impulsan el crecimiento a través de la tecnología. Ganadora del premio WeQual EMEA, ha sido pionera en ecosistemas eB2B, ha escalado plataformas a cientos de millones en ingresos y ha logrado importantes aumentos en ventas y rentabilidad. Exalumna de Stanford y SingularityU, combina visión estratégica, liderazgo centrado en las personas y una profunda experiencia en crecimiento impulsado por la tecnología. Se ha unido al profesorado de MDRAI, aportando perspectivas empresariales sobre estrategias para la adopción responsable de IA.

Tatiana Pilnik

Tatiana es sociotecnóloga, diseñadora de servicios e investigadora, y trabaja en la intersección de la tecnología, la transformación social y la innovación empresarial, con sede en Brasil. Como exdirectora de Estrategia de UX e IA en Silverguard, diseñó productos, modelos de gobernanza de IA y ecosistemas de stakeholders que hacen visibles y accionables sistemas invisibles como la ciberdelincuencia y las brechas de género. Con experiencia en liderazgo de UX, inteligencia del consumidor e investigación a gran escala en Latinoamérica y Europa, su trabajo combina la perspicacia humana, la fluidez cultural y el pensamiento sistémico. Tras graduarse, fue contratada por Google y ha publicado en medios como MIT Sloan Review Brasil.

Netta Tzin

Netta es una estratega de productos y negocios especializada en productos basados ​​en IA y centrados en datos, con más de una década de experiencia conectando música, arte y tecnologías emergentes. Cofundadora y directora de producto de MySphera, desarrolla soluciones de aprendizaje automático para artistas, creadores y ecosistemas musicales. Su formación multidisciplinar abarca la ingeniería industrial, la gestión internacional y el diseño responsable de IA, además de una amplia experiencia en startups, innovación cultural e IA creativa. Activista social de toda la vida, el trabajo de Netta se basa en el pensamiento sistémico, la curiosidad artística y el compromiso con un futuro tecnológico equitativo.

Jennifer Simonds

Jennifer es líder en diseño de experiencia de usuario (UX) e IA responsable, con sede en Berlín, y se dedica a integrar la accesibilidad, la ética y la tecnología para crear servicios digitales de interés público. Con más de una década de experiencia, apoya a instituciones como la Bundesdruckerei, la KBA y organismos de la UE en la creación de sistemas inclusivos, compatibles y centrados en el ser humano. Actualmente, está desarrollando su proyecto final de carrera, Trust by Design, en una consultoría independiente que ayuda a las organizaciones a transformar la ciberseguridad y la gobernanza de la IA en un diseño práctico y centrado en el ser humano.

Alumni destacadas MDRAI 24

Gustavo Nogueira de Menezes

Gustavo es investigador de la temporalidad de la selva amazónica y fundador de Temporality Lab. Especializado en temporalidades y perspectivas decoloniales, Gustavo ayuda a individuos y sociedades a reflexionar sobre el cambio utilizando métodos ancestrales y contemporáneos. Con sede en Ámsterdam, ha colaborado con empresas como Globo, Google, Natura, Netflix, Nubank y Spotify. Como investigador en IA, explora el impacto de la IA en la percepción del tiempo y la IA ancestral, y se ha unido al profesorado del MDRAI como becario de investigación y aprendizaje creativo.

Diane Ortiz-Macleod

Diane es una científica de datos y artista que trabaja como consultora de estrategia de IA responsable con sede en Canadá. Cuenta con una amplia experiencia técnica y creativa en desarrollo, diseño y gestión de proyectos de IA. Ha liderado iniciativas globales de transformación de la IA y asesora a empresas, organizaciones sin fines de lucro y organizaciones artísticas, incluyendo el cargo de directora de operaciones fraccionada para una plataforma de IA como servicio. Desde que completó su maestría, ha impartido clases sobre los fundamentos de la IA a más de 100 líderes ejecutivos, desarrollando programas de estudio a medida sobre mitigación de riesgos, privacidad de datos, sesgo de modelos, transparencia y sostenibilidad.

Marta Gierszewska

Marta es líder de UX, diseñadora e investigadora con más de ocho años de experiencia en desarrollo de productos digitales y reside en Polonia. Actualmente, es directora de UX en Profitroom y se especializa en la intersección entre UX/UI, IA responsable y tecnologías de reservas. Tiene formación en ciencia cognitiva, liderazgo de equipos y pruebas de software, y ha liderado equipos de diseño en proyectos globales para clientes como la FIFA y fundó el primer encuentro de Polonia en la intersección del arte, la ciencia y la tecnología.

Monique Lemos

Monique es la fundadora y directora ejecutiva de topofutures, un laboratorio y consultoría de futuros plurales centrado en la investigación, la estrategia y las nuevas narrativas en medios creativos. Antropóloga brasileña, estratega cultural y especialista en IA responsable, trabaja de forma itinerante para mantenerse al día con las tendencias globales. Con formación en producción y estrategia cultural y títulos en Cine, Sociología y Política, y Antropología Digital, su investigación se centra en la IA generativa, la memoria ancestral, los imaginarios negros, las percepciones sociales de la tecnología y la alfabetización de datos.