A medida que la inteligencia artificial (IA) se integra más profundamente en la vida diaria y se utiliza con mayor frecuencia en la arquitectura, la cuestión de quién puede participar y quién corre el riesgo de ser excluido nunca ha sido más importante.

Además de una mayor eficiencia y productividad, un crecimiento económico potencial y un mejor análisis de datos, la Organización para la Cooperación y el Desarrollo Económico (OCDE) considera el «crecimiento inclusivo» como uno de sus principios rectores cuando se trata de IA. Pide la «gestión responsable de una IA confiable en la búsqueda de resultados beneficiosos para las personas y el planeta, como aumentar las capacidades humanas y mejorar la creatividad, promover la inclusión de poblaciones subrepresentadas, reducir las desigualdades económicas, sociales, de género y de otro tipo, y proteger los entornos naturales, revitalizando así el crecimiento inclusivo, el bienestar, el desarrollo sostenible y la sostenibilidad ambiental».

Sin embargo, la tecnología, y ahora específicamente la IA, ha estado moldeada durante mucho tiempo por una cultura dominada por los ‘tech bros’, donde las perspectivas masculinas (generalmente blancas) históricamente han marcado el tono y las prioridades.

Este año, el Día Internacional de la Mujer ofrece una oportunidad perfecta para reflexionar y discutir la inclusión dentro de los sistemas de IA y su uso dirigido a los arquitectos y el entorno construido en general. Para ayudarnos a hacer esto, le hemos pedido a Katie Fisher (directora de CARD Projects y RIBA J Rising Star), Olivia Stobs-Stobart (líder de diseño e inteligencia artificial en Plan A Consultants) y Renee Dobre (arquitecta y líder del equipo de computación de diseño en NBBJ) para discutir este tema.

¿Cómo se evalúa si un sistema de IA es «inclusivo»?

Olivia Stobs-Stobart: «Cualquier nuevo proceso o tecnología que adoptemos tiene que pasar algunas pruebas clave, y la inclusión es siempre una de ellas. Nos tomamos en serio la retroalimentación, ejecutamos pruebas piloto estructuradas en sistemas potenciales, recopilamos aportes y rastreamos el compromiso de diversos miembros del equipo en diferentes roles, niveles de experiencia y estilos de trabajo. Luego trabajamos con nuestro equipo de Personas y Cultura para garantizar la accesibilidad, la facilidad de uso y si la herramienta funciona para los miembros del equipo neurodiverso se considera antes de su adopción total. No es una ocurrencia tardía para nosotros; es parte del proceso desde el principio. Queremos que nuestras herramientas empoderen y apoyen a nuestro equipo para crear un espacio donde todos puedan hacer su mejor trabajo, sin quedarse atrás por la tecnología que nos rodea».

¿Dónde ve los mayores puntos de desequilibrio de género en el proceso de IA actual (investigación, ingeniería, trabajo de datos, producto, liderazgo)?

Katie Fisher: «Por lo que he visto y leído, el desequilibrio es más visible en el liderazgo, la ingeniería central y la financiación de riesgo. [for those creating the systems]. Los equipos que crean grandes modelos de lenguaje, complementos de IA integrados en BIM o plataformas de diseño generativo siguen siendo abrumadoramente masculinos. Por ejemplo, las herramientas de optimización que priorizan la velocidad y el costo sobre la atención o la participación de la comunidad reflejan quién establece las métricas. Las mujeres son más visibles en los paneles de ética y en roles de facilitación, pero con menos frecuencia dan forma al código subyacente o a las decisiones de inversión».

Olivia Stobs-Stobart: «Todo eso. El desequilibrio de género en la tecnología no es una conversación nueva, pero en la IA tiene un peso particular. Cuando nuestros sistemas aprenden de nuestros datos, reflejan nuestras instrucciones y están moldeados por nuestras ideas y valores, debemos preguntarnos: ¿de quién son las ideas en la sala?»

«¿Cómo podemos decir responsablemente que la IA es una representación justa de nuestra población cuando sólo el 22% de todos los profesionales de datos e IA en el Reino Unido son mujeres?. El desequilibrio de género tampoco existe de forma aislada; se combina con otras formas de exclusión que resultan en sesgos dañinos y circuitos de retroalimentación».

«Soy afortunado de trabajar en un entorno en el que me siento apoyado y en el que aprender sobre IA es algo que puedo perseguir activamente. Pero al entrar en espacios industriales más amplios y en conversaciones más amplias, recuerdo que mi experiencia puede ser la excepción, no la norma».

«Como industria tenemos la responsabilidad no sólo de abrir puertas, sino también de asegurarnos de que las personas adecuadas sepan que esas puertas existen. Eso significa alentar activamente a las mujeres, y a todos los grupos subrepresentados, a sentarse a la mesa y construir algo que funcione para todos».

Renée Bueno: «Si bien existe un claro desequilibrio en quién codifica los modelos base, como líder de computación en toda la empresa, veo un enorme cuello de botella en la fase de integración y liderazgo técnico dentro de las empresas de arquitectura, ingeniería y construcción. Tenemos una brecha en quién dirige cómo estas herramientas se implementan realmente en los proyectos. Si los directores técnicos y líderes de computación que toman decisiones sobre la adopción de IA son predominantemente hombres, los flujos de trabajo que priorizamos reflejarán naturalmente sus perspectivas. Necesitamos más mujeres en el espacio de ‘traductores’: aquellas que lideran la carga para volverse crudas Capacidad de IA en flujos de trabajo arquitectónicos aplicados y centrados en el ser humano».

A menudo oímos hablar de sesgos en los modelos de lenguajes grandes (LLM). ¿Dónde crees que el sesgo de género ingresa con mayor frecuencia a los sistemas de IA?

Renée Bueno: «Entra justo en la base: los datos de capacitación. Para los LLM y los modelos de generación de imágenes en nuestra industria, los datos se extraen de un canon histórico de la arquitectura que ha elevado sistemáticamente a los ‘arquitectos estrella’ masculinos y marginado a las diseñadoras. Si un sistema de IA se entrena en carteras históricas, su definición básica de ‘buena’ arquitectura ya está sesgada por género. También entra cuando definimos para qué debería ‘optimizar’ la IA. Si una herramienta de IA está entrenada para optimizar exclusivamente el rendimiento y el costo espacial, «A menudo ignora los aspectos cualitativos y matizados del espacio que apoyan el cuidado, la comunidad y la inclusión».



Source link