Escándalos como el de la filtración de datos de usuarios de Cambridge Analytica con Facebook o el de la aparición de anuncios racistas en la misma red social, dibujan un escenario digital con una preocupante falta de ética. The Guardian cree que una mejor regulación es necesaria pero no suficiente: los programadores necesitan formación y apoyo para poder poner en cuestión los hasta ahora voraces modelos de negocio tecnológicos.

Han sido dos años difíciles para el sector tecnológico. Las elecciones de 2016 en Estados Unidos marcaron un punto de inflexión en lo que antes era un rostro del capitalismo optimista y autorrealizado. Hoy en día, la opinión más generalizada es que una pequeña minoría ha estado haciendo dinero alterando las cosas a expensas de la mayoría. Las empresas de tecnología están fuera de control porque los legisladores han sido negligentes, indiferentes o, lo que es peor, se han mostrado desconcertados ante las perspectivas reguladoras. Pero a raíz del escándalo por la filtración de datos de Cambridge Analytica/Facebook, ha surgido un nuevo interés por el papel que juegan los asuntos éticos en el trabajo de las empresas tecnológicas y los programadores que construyen su maquinaria.

Tradicionalmente, a los ingenieros no se les ha pedido que reflexionen sobre el trabajo que realizan teniendo en cuenta un contexto social más amplio. El proceso de diseño tecnológico rara vez se presta a la consideración de las dinámicas de poder, aunque nunca están ausentes. Una vez escuché a un programador hablar sobre cómo se rascaba las picaduras, refiriéndose a desarrollar programas de ordenador para resolver los problemas que afrontaba. La programación trata de escribir el programa informático más elegante para que un ordenador complete una tarea, que puede ir desde corregir un error o crear un complemento hasta intercambiar imágenes de políticos por otras de gatos. Las consideraciones éticas a menudo se consideran fuera del alcance de los ingenieros o por encima de lo que se les paga – queda para otros reflexionar mientras ellos desarrollan cosas.

El problema de esta perspectiva es que la tecnología digital es tan ampliamente utilizada que los programadores que escriben los softwares necesitan anticiparse a las necesidades de los demás, a sus vulnerabilidades y circunstancias: una tarea significativa y compleja. Hemos visto las consecuencias involuntarias de errores anteriores al llevar a cabo dicho trabajo -donde el código ha fallado. Hace cinco años, la profesora de Harvard Latanya Sweeney elaboró una convincente investigación sobre las búsquedas más probables en Google de nombres afroamericanos, en comparación con búsquedas de nombres más típicos para personas de raza blanca, y que servían para generar anuncios de compañías que ofrecen verificaciones de antecedentes -sugiriendo que una persona podría tener antecedentes penales. Google Fotos etiquetó imágenes de personas afroamericanas como "gorilas". Hasta hace poco, Facebook tenía un algoritmo que generaba categorías para su uso en publicidad contextual que incluía a personas que expresaban interés en temas como "odio a los judíos" . Google ha tenido un problema similar con categorías específicas que eran racistas.

No es que las personas que codificaron estos programas fueran racistas. Los trabajadores no tienen la culpa de estos malos resultados. Por el contrario, surgen debido a muchos factores, incluido el ánimo de lucro, el diseño apresurado y la falta de diversidad entre los trabajadores de la tecnología, lo que reduce las posibilidades de que se redacten programas que presten suficiente atención a cuestiones de diversidad y discriminación. Si los ejecutivos ordenan que sus trabajadores se muevan rápido y cambien las cosas, se puede vislumbrar claramente que otras personas se verán obligadas a recoger más tarde los pedazos.

Martin Lewis, un experto asesor en temas de consumo y ahorro de Reino Unido, ha demandado a Facebook por unos anuncios falsos que usaban su nombre y su rostro para atraer a personas hacia un ruinoso fraude. Los algoritmos de la compañía han permitido que ciertas personas sean seleccionadas con estos falsos anuncios, en vez de tener sistemas de verificación y comprobación que puedan detectar estos problemas. Del mismo modo, una mayor moderación humana de los foros misóginos de incels (los involuntariamente célibes) y las alarmas de insurgencia en los perfiles de Facebook, posiblemente vinculados al reciente ataque con furgoneta de Toronto, podrían evitar nuevas atrocidades.

El futuro de la tecnología no es un camino pautado. Abordar los problemas a los que nos enfrentamos requerirá todo tipo de esfuerzos. Pero algo necesario es que las consideraciones éticas sean puestas de relieve. Los abogados tienen su mayor deber ante el tribunal. Los médicos deben el suyo a los pacientes. Este tipo de marcos de referencia pueden ser una forma para que los profesionales de la tecnología articulen las condiciones necesarias para hacer bien su trabajo. También se nos pide que consideremos ante quién deben ser responsables los ingenieros de software: ¿ante sus jefes, ante ellos mismos o ante el público?

Ya estamos comenzando a ver cómo los asuntos éticos pueden servir como un punto de referencia para desarrollar una nueva organización industrial y política de las compañías tecnológicas. Miles de empleados de Google recientemente firmaron una carta protestando por la participación de la compañía en un proyecto del Pentágono para aplicar inteligencia artificial en imágenes recogidas por drones. Docenas de científicos de numerosos países han pedido el boicot a una universidad de Corea del Sur que quiere crear robots autónomos con fines militares. Miles de ingenieros en EEUU firmaron su compromiso para negarse  a crear una base de datos de inmigrantes. La Tech Workers Coalition ayudó a organizar una protesta frente a la sede de Palantir , la compañía estadounidense que creó un enorme cerebro de vigilancia tecnológica utilizado por la policía y el espionaje.

Tales acciones de individuos y grupos requieren valentía y merecen el apoyo público. También nos recuerdan lo que es posible y nos dan la oportunidad de hablar sobre el camino que podría seguir ese activismo. El diseño ético puede servir como un baluarte contra la incesante búsqueda de ganancias y de poder. Los desarrolladores de tecnología digital necesitan espacio y sentirse motivados para debatir sobre los recursos que necesitan, si realmente queremos que trabajen de forma respetuosa y centrada en las necesidades de los usuarios. Una adecuada regulación de estas industrias por parte de los gobiernos es algo muy esperado, pero no es una respuesta total. Los trabajadores necesitan el poder para oponerse al modelo de negocio que crea estos problemas éticos y, a menudo, tienen hasta buenas ideas sobre cómo resolverlos.

¿Cómo pueden ser esas soluciones? Comenzarían por una formación más ética, tanto como parte de la formación de cada ingeniero informático, como en el propio trabajo. Podrían incluir ideas tales como permitir que los usuarios sepan qué datos se recopilan sobre ellos y darles la opción de elegir cuáles y cómo quieren compartirlos. También podrían requerir tener en cuenta la experiencia de una serie diversa de usuarios e involucrarles en el desarrollo y los beta tests de nuevos programas y herramientas.

La supervisión por parte de los humanos puede ser más costosa que la automatización, pero es esencial e inevitable si queremos mejorar nuestro entorno digital. Con el tiempo, dicho trabajo podría ampliarse a asuntos relacionados con el poder político. ¿Podríamos fomentar una cultura que impulse el uso de la tecnología para fines pacíficos y comenzar a cuestionar la tecnología al servicio de las cárceles y del ejército? En resumen, crear una cultura que sea lo opuesto a "moverse rápido y trastocar las cosas"; una que se tome el tiempo para construir las cosas respetuosamente, de una manera que empodere a las personas.

 

O'Shea, Lizzie. "Tech has no moral code. It is everyone’s job now to fight for one?". The Guardian, 25/04/2018 (Artículo consultado online el 01/05/2018).

Acceso a la noticia: https://www.theguardian.com/commentisfree/2018/apr/25/tech-no-moral-code-racist-ads-cambridge-analytica-technology-ethical-deficit

 

Subscriu-te gratuïtament als nostres butlletins

Rep notícies i idees en Recursos Humans.
Subscripció

Utilitzem cookies per oferir a les nostres visites una millor experiència de navegació pel nostre web.
Si continues navegant, considerem que acceptes la seva utilització.