La salida de Timnit Gebru de Google es un poderoso recordatorio de cuán profundamente las empresas dominan el campo, con las computadoras más grandes y la mayor cantidad de recursos.
por TOM SIMONIT E
El investigador de inteligencia artificial de Google , Timnit Gebru, dijo que la empresa la despidió después de que los gerentes le pidieran que se retractara o retirara su nombre de un trabajo de investigación, y ella se opuso. Google sostiene que ella renunció, y el CEO de Alphabet, Sundar Pichai, dijo en un memorando de la compañía el miércoles que investigaría lo sucedido.
El episodio es un recordatorio puntual de la influencia y el poder de las empresas de tecnología sobre su campo. La inteligencia artificial sustenta productos lucrativos como el motor de búsqueda de Google y la asistente virtual de Amazon, Alexa . Las grandes empresas publican artículos de investigación influyentes, financian conferencias académicas, compiten para contratar a los mejores investigadores y poseen los centros de datos necesarios para los experimentos de IA a gran escala. Un estudio reciente descubrió que la mayoría de los profesores titulares en cuatro universidades prominentes que divulgan las fuentes de financiación habían recibido el respaldo de Big Tech.
Ben Recht, profesor asociado de la Universidad de California en Berkeley, que ha pasado un tiempo en Google como profesor visitante, dice que sus colegas investigadores a veces olvidan que el interés de las empresas no se deriva solo del amor por la ciencia. “La investigación corporativa es asombrosa y ha habido cosas asombrosas que surgieron de Bell Labs, PARC y Google”, dice. “Pero es extraño pretender que la investigación académica y la investigación corporativa son lo mismo”.
Ali Alkhatib, investigador del Centro de Ética de Datos Aplicados de la Universidad de San Francisco, dice que las preguntas planteadas por el tratamiento de Google de Gebru corren el riesgo de socavar toda la investigación de la compañía. “Se siente precario de citar porque puede haber cosas detrás de escena, de las que no pudieron hablar, de las que aprenderemos más tarde”, dice.
“En cualquier momento, una empresa puede mejorar su trabajo o darle forma para que funcione más como relaciones públicas que como producción de conocimiento en el interés público”.
MEREDITH WHITTAKER, DIRECTORA DE LA FACULTAD, AI NOW INSTITUTE
Alkhatib, quien anteriormente trabajó en la división de investigación de Microsoft, dice que entiende que la investigación corporativa viene con limitaciones. Pero le gustaría que Google hiciera cambios visibles para recuperar la confianza de los investigadores dentro y fuera de la empresa, quizás aislando a su grupo de investigación de otras partes de Google.
El documento que llevó a la salida de Gebru de Google destacó las cuestiones éticas planteadas por la tecnología de inteligencia artificial que funciona con el lenguaje. El jefe de investigación de Google, Jeff Dean, dijo en un comunicado la semana pasada que “no cumplió con nuestro estándar de publicación”.
Gebru ha dicho que los gerentes pueden haber visto el trabajo como una amenaza para los intereses comerciales de Google, o una excusa para despedirla por criticar la falta de diversidad en el grupo de inteligencia artificial de la compañía. Otros investigadores de Google han dicho públicamente que Google parece haber utilizado su proceso de revisión de investigación interna para castigarla. Más de 2.300 empleados de Google, incluidos muchos investigadores de IA, han firmado una carta abierta exigiendo que la empresa establezca directrices claras sobre cómo se manejará la investigación.
Meredith Whittaker, directora de la facultad del instituto AI Now de la Universidad de Nueva York, dice que lo que le sucedió a Gebru es un recordatorio de que, aunque empresas como Google alientan a los investigadores a considerarse académicos independientes, las corporaciones priorizan los resultados por encima de las normas académicas. “Es fácil de olvidar, pero en cualquier momento una empresa puede mejorar su trabajo o darle forma para que funcione más como relaciones públicas que como producción de conocimiento en el interés público”, dice.
Whittaker trabajó en Google durante 13 años, pero se fue en 2019 , diciendo que la compañía había tomado represalias contra ella por organizar una huelga por acoso sexual y socavar su trabajo planteando preocupaciones éticas sobre la IA. Ayudó a organizar protestas de empleados contra un contrato de inteligencia artificial con el Pentágono que la empresa finalmente abandonó, aunque ha aceptado otros contratos de defensa.
El aprendizaje automático fue una dimensión oscura de la academia hasta alrededor de 2012, cuando Google y otras empresas de tecnología se interesaron intensamente en los avances que hicieron que las computadoras reconocieran mucho mejor el habla y las imágenes.
La empresa de búsquedas y anuncios, seguida rápidamente por rivales como Facebook, contrató y adquirió académicos destacados y los instó a seguir publicando artículos entre trabajos en los sistemas de la empresa. Incluso Apple, que tradicionalmente tenía los labios cerrados, se comprometió a ser más abierta con su investigación, en un intento por atraer el talento de la IA. Los trabajos con autores corporativos y los asistentes con distintivos corporativos inundaron las conferencias que son los principales lugares de publicación del campo.
NeurIPS , la conferencia de aprendizaje automático más grande, que tuvo lugar virtualmente esta semana, tuvo menos de 2,000 asistentes en 2012 y más de 13,000 en 2019 . En los últimos años, la conferencia se ha convertido en un terreno de caza para los grandes equipos de reclutamiento de tecnología, que atraen a los doctores con cenas y fiestas lujosas.
Un estudio publicado en julio descubrió que Alphabet, Amazon y Microsoft contrataron a 52 profesores de inteligencia artificial con permanencia entre 2004 y 2018.
La investigación de IA corporativa también se ha convertido en un elemento básico de las estrategias de relaciones públicas de las grandes tecnologías. Recht dice que esto a veces ha distorsionado qué trabajo gana prominencia entre los investigadores y ha influido en las revistas de alto perfil para que aceptaran trabajos corporativos que podrían no haber sido dignos de una publicación tan destacada. Él dice que otras áreas de la informática, como las bases de datos y los gráficos, han manejado mejor la influencia corporativa, por ejemplo, al crear pistas separadas para la industria y el trabajo académico en sus conferencias.
William Fitzgerald, quien anteriormente trabajó en relaciones públicas para IA en Google, dice que era una rutina que su departamento fuera consultado sobre nuevos trabajos de investigadores de la compañía. “A veces es porque Google quería iluminarlo y lucirse”, dice. “También hubo ocasiones en que un investigador publicaba algo y yo tenía que hablar por teléfono y decir ‘Se supone que no debes hacer eso’”.
Recht aceptó el premio “Test of Time” en NeurIPS esta semana, a través de un chat de video, por un artículo del que fue coautor; Llevaba una camiseta que decía “Las conferencias corporativas todavía apestan”.
Recht y otros que desconfían de la exageración corporativa también dicen que la investigación de la IA industrial ha llevado a una fijación no científica en proyectos que solo son posibles para personas con acceso a centros de datos gigantes. Un premio anunciado en NeurIPS esta semana fue para GPT-3, un modelo de generación de lenguaje desarrollado por OpenAI, un laboratorio de inteligencia artificial con fines de lucro. GPT-3 es capaz de una fluidez impresionante , pero para construirlo, la compañía pagó a Microsoft para que construyera una supercomputadora personalizada .
Jesse Dodge, un investigador postdoctoral en el Instituto Allen de IA, dice que aunque el proyecto es impresionante, tiene un valor académico limitado, porque los vastos recursos involucrados hacen imposible que nadie más que una gran corporación pueda replicarlo. OpenAI está comercializando GPT-3 con Microsoft y vende acceso al modelo, pero no lo ha lanzado.
“Esto rompe las normas de la ciencia, donde normalmente publicamos modelos que pueden adoptarse ampliamente y evaluarse en dimensiones adicionales con el tiempo”, dice Dodge. Sugiere que los organizadores de conferencias utilicen los premios de manera más cuidadosa, destacando el trabajo frente a criterios más definidos que puedan ofrecer un beneficio científico duradero.
OpenAI ha dicho que los continuos avances en el poder de la computación generalmente significan que los nuevos inventos de IA se vuelven fácilmente replicables por otros.
El documento que condujo a la salida no planificada de Gebru pedía a los desarrolladores de inteligencia artificial que fueran más cautelosos al construir potentes sistemas de inteligencia artificial para procesar el lenguaje, que han producido resultados impresionantes pero también muestran una tendencia a repetir los estereotipos aprendidos en línea. Fue codirectora de un equipo destacado en Google dedicado a explorar las implicaciones éticas de la investigación de la IA. La compañía había promocionado su trabajo como evidencia de que estaba siendo más considerada con la IA que con sus rivales .
Whittaker de AI Now dice que sondear adecuadamente los efectos sociales de la inteligencia artificial es fundamentalmente incompatible con los laboratorios corporativos. “Ese tipo de investigación que analiza el poder y la política de la IA es y debe ser intrínsecamente contradictorio con las empresas que se benefician de esta tecnología”, dice. “Cuando estas empresas intentaron apropiarse de esa investigación, este tipo de situación era inevitable”.
Gebru está programado para hablar en un taller de NeurIPS que tendrá lugar el viernes y estará dedicado a analizar las tensiones causadas por los proyectos corporativos de inteligencia artificial. El sitio web de Resistance AI señala que la investigación de la inteligencia artificial “ha estado concentrando el poder en manos de gobiernos y empresas y lejos de las comunidades marginadas”. La agenda se cambió recientemente para incluir a Gebru como un “investigador de IA ética aclamado”, no como un “codirector de Ethical AI @Google”.
Fuente: https://www.wired.com/story/dark-side-big-tech-funding-ai-research/