Estas son las mujeres que nos protegerán de la inteligencia artificial

Hace un año, la idea de mantener una conversación significativa con una computadora era algo de ciencia ficción. Pero desde el lanzamiento de ChatGPT de OpenAI el pasado noviembre, la vida ha empezado a parecerse más a un thriller tecnológico con una trama trepidante. Los chatbots y otras herramientas de IA generativa están empezando a cambiar profundamente la forma en que la gente vive y trabaja. Pero que esta trama resulte edificante o distópica dependerá de quién ayude a escribirla.

Afortunadamente, así como evoluciona la inteligencia artificial, también lo hace el elenco de personas que la construyen y la estudian. Se trata de una multitud más diversa de líderes, investigadores, empresarios y activistas que aquellas personas que sentaron las bases de ChatGPT. Aunque la comunidad de la IA sigue siendo abrumadoramente masculina, en los últimos años algunos investigadores y empresas se han esforzado por hacerla más acogedora para las mujeres y otros grupos infrarrepresentados. Y este campo incluye ahora a muchas personas preocupadas por algo más que hacer algoritmos o ganar dinero, gracias a un movimiento, liderado en gran parte por mujeres, que considera las implicaciones éticas y sociales de la tecnología. Estos son algunas de las personas que dan forma a esta acelerada historia. -Will Knight

Sobre el arte

«Quería utilizar la IA generativa para captar el potencial y la inquietud que sentimos al explorar nuestra relación con esta nueva tecnología», explica el artista Sam Cannon, quien trabajó con cuatro fotógrafos para mejorar retratos con fondos creados por IA. «Fue como una conversación: yo le daba imágenes e ideas a la inteligencia artificial, y ella ofrecía las suyas a cambio».


Rumman Chowdhury

Rumman Chowdhury with an AIgenerated interpretation of her original portrait.

Rumman Chowdhury

 FOTOGRAFÍA: CHERIL SANCHEZ/ ARTE DE IA POR SAM CANNON

Rumman Chowdhury dirigió la investigación sobre IA ética de Twitter hasta que Elon Musk adquirió la empresa y despidió a su equipo. Es cofundadora de Humane Intelligence, una organización sin fines de lucro que utiliza el crowdsourcing para revelar vulnerabilidades en los sistemas de IA, diseñando concursos que desafían a los hackers a inducir malos comportamientos en los algoritmos. Su primer evento, previsto para este verano con el apoyo de la Casa Blanca, pondrá a prueba sistemas de IA generativa de empresas como Google y OpenAI. Chowdhury asegura que las pruebas públicas a gran escala son necesarias debido a las amplias repercusiones de los sistemas de inteligencia artificial. “Si las implicaciones de esto afectarán a la sociedad en su conjunto, ¿no son las mejores expertas las personas de la sociedad en su conjunto?” -Khari Johnson


Sarah Bird

Sarah Bird with AIgenerated interpretations of Bird's original portrait.

Sarah Bird

 FOTOGRAFÍA: ANNIE MARIE MUSSELMAN/ ARTE DE IA POR SAM CANNON

El trabajo de Sarah Bird en Microsoft consiste en evitar que se descarrile la IA generativa que la empresa está incorporando a sus aplicaciones ofimáticas y otros productos. A medida que ha observado cómo los generadores de texto, como el que está detrás del chatbot de Bing, se han vuelto más capaces y útiles, también los ha visto mejorar a la hora de presentar contenido tendencioso y código dañino. Su equipo trabaja para contener ese lado oscuro de la tecnología. La IA podría mejorar muchas vidas, afirma Bird, pero «nada de eso es posible si a la gente le preocupa que la tecnología produzca resultados estereotipados».


Yejin Choi

Yejin Choi with AIgenerated interpretations of Choi's original portrait.

Yejin Choi

 FOTOGRAFÍA: ANNIE MARIE MUSSELMAN/ ARTE DE IA POR SAM CANNON

Yejin Choi, profesora de la Facultad de Informática e Ingeniería de la Universidad de Washington, está desarrollando un modelo de código abierto llamado Delphi, diseñado para tener un sentido del bien y del mal. Le interesa saber cómo perciben los humanos los pronunciamientos morales de Delphi. Choi quiere sistemas tan capaces como los de OpenAI y Google que no requieran enormes recursos. «El enfoque actual en la escala es muy poco saludable por varias razones», indica. «Es una concentración total de poder, demasiado cara, y es poco probable que sea la única manera «—W.K.


Margaret Mitchell

Margaret Mitchell with AIgenerated interpretations of Mitchell's original portrait.

Margaret Mitchell

 FOTOGRAFÍA: ANNIE MARIE MUSSELMAN/ ARTE DE IA POR SAM CANNON

Margaret Mitchell fundó en 2017 el equipo de investigación Ethical AI de Google. Fue despedida cuatro años después tras una disputa con ejecutivos por un artículo del que era coautora. En él advertía de que los grandes modelos de lenguaje (la tecnología detrás de ChatGPT) pueden reforzar los estereotipos y causar otros males. Mitchell es ahora jefa de ética en Hugging Face, una compañía que desarrolla software de IA de código abierto para programadores. Trabaja para garantizar que los lanzamientos de la empresa no deparen sorpresas desagradables y anima al sector a anteponer las personas a los algoritmos. Los modelos generativos pueden ser útiles, destaca, pero también pueden estar socavando el sentido de la verdad de las personas: «Corremos el riesgo de perder el contacto con los hechos de la historia «. -K.J.


Inioluwa Deborah Raji

Inioluwa Deborah Raji with AIgenerated interpretations of Raji's original portrait.

Inioluwa Deborah Raji

 FOTOGRAFÍA: AYSIA STIEB; ARTE DE IA POR SAM CANNON

Cuando Inioluwa Deborah Raji empezó en la inteligencia artificial, trabajó en un proyecto que descubrió sesgos en los algoritmos de análisis facial. Eran menos precisos con las mujeres de piel oscura. Los resultados llevaron a Amazon, a IBM y a Microsoft a dejar de vender tecnología de reconocimiento facial. Ahora Raji trabaja con la Fundación Mozilla en herramientas de código abierto que ayuden a los usuarios a examinar los sistemas de IA para detectar fallos como sesgos e imprecisiones, incluidos los grandes modelos de lenguaje. Raji señala que estas herramientas pueden ayudar a las comunidades perjudicadas por la IA a rebatir las afirmaciones de las poderosas empresas tecnológicas: «La gente niega activamente el hecho de que se produzcan daños», aclara, «por lo que la recopilación de pruebas es esencial para cualquier tipo de progreso en este campo » -K.J.


Daniela Amodei

Daniela Amodei with a background of AIgenerated interpretations of her original portrait.

Daniela Amodei

 FOTOGRAFÍA: AYSIA STIEB/ ARTE DE IA POR SAM CANNON

Daniela Amodei trabajó anteriormente en políticas de IA en OpenAI, ayudando a sentar las bases de ChatGPT. Pero en 2021, ella y varias personas más dejaron la empresa para fundar Anthropic, una corporación de beneficio público que traza su propio enfoque de la seguridad de la IA. El chatbot de la startup, Claude, tiene una «constitución» que guía su comportamiento, basada en principios extraídos de fuentes como la Declaración Universal de los Derechos Humanos de la ONU. Amodei, presidente y cofundador de Anthropic, opina que este tipo de ideas reducirán el mal comportamiento actual y quizá ayuden a limitar los sistemas de IA más potentes del futuro: «Pensar a largo plazo en las posibles repercusiones de esta tecnología podría ser muy importante».


Lila Ibrahim

Lila Ibrahim with AIgenerated interpretations of Ibrahim's original portrait.

Lila Ibrahim

 FOTOGRAFÍA: AYESHA KAZIM; ARTE DE IA POR SAM CANNON

Lila Ibrahim es directora de operaciones de Google DeepMind, una unidad de investigación fundamental para los proyectos de IA generativa de Google. Considera que dirigir uno de los laboratorios de IA más potentes del mundo es más una vocación moral que un trabajo. Ibrahim se incorporó a DeepMind hace cinco años, tras casi dos décadas en Intel, con la esperanza de ayudar a que la IA evolucione de forma que beneficie a la sociedad. Una de sus funciones es presidir un consejo de revisión interna que analiza cómo ampliar los beneficios de los proyectos de DeepMind y evitar los malos resultados: «Pensé que si podía aportar parte de mi experiencia y conocimientos para ayudar a que esta tecnología naciera en el mundo de una forma más responsable, entonces valía la pena estar aquí», expresa . -Morgan Meaker