Inicio Gremiales La libertad del algoritmo corporativo y sus implicancias en el derecho del trabajo: «El etiquetado de datos»

La libertad del algoritmo corporativo y sus implicancias en el derecho del trabajo: «El etiquetado de datos»

13 minuto leer
Comentarios desactivados en La libertad del algoritmo corporativo y sus implicancias en el derecho del trabajo: «El etiquetado de datos»
0

La revista MIT Technology Review del Instituto Tecnológico de Massachusetts, publicación de referencia en tecnologías emergentes, en su edición (en español) del día 27 del mes de abril del 2022, advierte sobre una de las consecuencias del proceso de ejecución de un algoritmo en el contexto actual: ¨[…] las empresas que etiquetan los datos de la IA encontraron trabajadores baratos y desesperados en medio de una crisis económica devastadora, creando un nuevo modelo de explotación laboral […]¨.

Para poder tener una real comprensión de esta problemática, debemos entender en qué consiste el etiquetado de datos, como así también el concepto de algoritmo y comprender sus modelos de Machine Learning.

El etiquetado consiste en una acción que es realizada en el proceso de desarrollo de un algoritmo. En estas instancias es donde los datos, que son hechos que desde diversos puntos de vista, se transforman en información y desde allí en conocimiento. Desde mi perspectiva considero que este procesamiento requiere de especialistas: data mines o personal con cierta idoneidad en la materia, a fin de evitar sesgos o propiamente prejuicios, ya que su labor es entregar a los programadores los insumos con destino a los dataset para las predicciones de los algoritmos.

Es por lo antedicho que se debe considerar no solo la idoneidad en la carga de los datos, sino el hecho de que los seres humanos ya tenemos sesgos por nuestras concepciones del mundo. A fin de evitarlos y ser objetivos en la carga, las acciones se deben realizar mediante protocolos en línea con la inteligencia algorítmica aplicada que se quiera crear. Resulta útil poner de relieve, a los fines de este artículo, que los sesgos que aquí importan son los que producen efectos disvaliosos tales como el enunciado en la revista.

El uso corporativo de los algoritmos debe ser auditado, no sólo en su proceso de creación sino también durante y luego, en su puesta en funcionamiento.

Volviendo a la definición de algoritmos – y no es mi intención exponer la gran cantidad de las existentes y para ser claro al lector en este desarrollo-, me inclino por la definición: ¨Conjunto de instrucciones, reglas o una serie metódica de pasos que puede utilizarse para hacer cálculos, resolver problemas y tomar decisiones¨ (JUAN G. CORVALAN. Tratado de Inteligencia Artificial y Derecho. Tomo 1. Pág. 21). La base de estas operaciones es lo que se conoce como machine learning (aprendizaje automático), que es el aprendizaje en base a ejemplos y por otro lado el deep learnig que implica capas profundas.

Podríamos decir que es una función matemática, con una matriz que usa información del pasado para predecir el futuro, o sea que emplea las herramientas matemáticas para simular pensamiento humano. El problema radica en que las máquinas autoaprenden en su proceso de ejecución, al punto en que se constituyen en verdaderas cajas negras que ni los programadores alcanzarían a saber cómo realmente funcionan y autoaprenden.

Existe en el aprendizaje automático un juego en la ejecución de los algoritmos que podríamos llamar el juego de la simulación, lo que significa que un algoritmo realiza una acción – y es lo que nos llama la atención a los seres humanos – que nos hace creer que piensa como un ser humano, y aquí está el núcleo problemático de esta situación.

Los algoritmos existen desde hace mucho tiempo, pero lo que hoy determina su valor es la confluencia de tecnologías de forma acelerada, que tienen determinados usos y consecuencias en nuestra vida analógica.

Voy a proceder a invertir el desarrollo de los hechos que generalmente acontecen en las teorías experimentales como éstas, lo que significa que voy a tratar de sentar una posición para prevenir situaciones desde su génesis, teniendo en cuenta su desarrollo y ejecución.

En el desarrollo de los modelos de la algoritmia aplicada, como en el caso de lo expresado por la revista mencionada, en primer lugar debemos tener presente cuáles son las tareas que se quieren resolver para predecir y automatizar decisiones, a través de algún lenguaje de programación.

En la clasificación y generación de ejemplos para que la máquina aprenda, lo fundamental es identificar cuáles son las reglas o instrucciones para realizar determinada acción con los datos aportados. La problemática surge cuando se presentan nuevos inputs: cómo se analizarían estos datos aportados y su clasificación es automática.

La forma en la que se eligen las reglas, y la lógica es para que funcione mejor. Cuando ese modelo se entrena, establece criterios, y esto tiene importancia para aplicar un scoring que determina perfiles digitales para el acceso al mundo del trabajo.

Hagamos una analogía para una mejor comprensión de la problemática: si un determinado software realiza una predicción y hace que nuestra vida resulte más simple, no podemos discutir la cuestión; mejora nuestras vidas. Pero si los efectos de esas predicciones producen un daño de algún tipo, debemos entender cuáles son las causas que producen esas consecuencias.

En la última década -o tal vez, más-, el desarrollo y ejecución de los algoritmos se llevó a cabo sin ningún tipo de control. En los laboratorios donde se aportaban los datos, los programadores en general solo pedían datos para obtener determinados resultados -cuando hablamos de algoritmia aplicada- y, en consecuencia, lo que interesaba era solo el resultado.

El proceso de creación de este tipo de operación de software tiene dos etapas: la de desarrollo y la de ejecución. A éstas debemos sumar una tercera, que es la de control durante su funcionamiento para así seguir sus pasos objetivamente.

En síntesis y para concluir, la libertad corporativa del algoritmo sin un fin ético preciso, sin un control multidisciplinario y sin un ente que siga la trazabilidad del mismo, deja librado a un puñado de empresas el perfilamiento digital de los trabajadores. Esta ¨libertad algorítmica¨ corporativa no es un buen presagio para el futuro del trabajo. Si las empresas no tienen como criterio para la contratación de los dependientes su experticia en el manejo de los datos, los software quedan librados a sus propias reglas.

Alejandro Urueña, Procurador. Abogado. Especialista en Derecho del Trabajo, empleo e innovación del mundo del trabajo. Diplomado en Derecho del Trabajo y Relaciones Laborales, Universidad Austral; Diplomado en Derecho 4.0, Universidad Austral; Magister en Derecho del Trabajo y Relaciones Laborales, Universidad Austral (T.P); Actualmente cursando Posgrado de Inteligencia Artificial y Derecho, I.A.L.A.B, U.B.A. y Posgrado en Metaverso I.A.L.A.B, U.B.A.-




Link de la Fuente

Cargue Artículos Más Relacionados
Cargue Más Por Administrador
Cargue Más En Gremiales
Comentarios cerrados

Mira además

«No los volveremos a ver»

El consejero delegado de la aerolínea irlandesa Ryanair, Michael O’Leary, aseguró es…