digital_it_16x12.jpg

Las empresas deben analizar sus datos antes de ejecutar un algoritmo.

29 marzo min.

La inteligencia artificial (IA) está adquiriendo cada vez más importancia para las empresas y los consumidores. Pero esto es mucho más que solo tecnología. Según Natasja van de L'Isle, consultora de ciencia de datos en TMC, el resultado de los sistemas de IA puede contener sesgos debido a múltiples causas, con posibles consecuencias importantes. Los sistemas de IA no siempre son objetivos, también en los Países Bajos. “El sesgo en los datos puede ser un problema, al igual que el entrenamiento incorrecto o la evaluación incorrecta.”

Hoy en día, los algoritmos se encuentran en todas partes. Determinan los resultados de búsqueda en Google y lo que ves en las redes sociales. Pero los algoritmos también se utilizan frecuentemente en otras áreas y actividades. Por ejemplo, sistemas de cámaras de seguridad en tiendas, verificaciones dobles en cajas autoservicio y evaluaciones de crédito en línea.

Un algoritmo es un conjunto de código diseñado para resolver un problema y puede ser autoadaptativo. Los datos se introducen en el algoritmo, lo que lleva a un resultado. Es inteligencia artificial cuando estos algoritmos toman decisiones independientes basadas en datos o señales del entorno y aprenden de ellas. Sin embargo, los algoritmos aprenden según lo que las personas introducen en ellos. “Si los datos contienen prejuicios conscientes o inconscientes, el algoritmo los utilizará en el resultado. Los datos pueden contener sesgos relacionados con género, edad, origen étnico o lugar de residencia. Por ejemplo, en la selección de candidatos. Es importante verificar si los datos reflejan adecuadamente al grupo objetivo, pero también cómo estos se relacionan con el resto de la sociedad. Para evitar sesgos, las empresas primero deberían analizar a fondo sus datos antes de usar un algoritmo. Necesitan comprender el contexto en el que se recopilaron los datos, para identificar cuáles pueden ser los errores presentes en ellos.”

Evaluación objetiva

Varios ejemplos muestran que esto no siempre sucede. En los Países Bajos, cada vez más empresas realizan verificaciones de crédito para otras organizaciones. NS utiliza este servicio. Con inteligencia artificial, otra empresa verifica si alguien puede solicitar una tarjeta OV o NS Business en forma de suscripción. Si alguien desea oponerse cuando el resultado de esta verificación es negativo, solo puede hacerlo ante la empresa que realiza las verificaciones. NS en sí misma no asume responsabilidad por el resultado. Esto se hizo evidente a partir de varios informes recibidos en el punto de denuncia de la Asociación de Consumidores denominado 'la víctima de tus datos'. Varias personas no pudieron obtener una suscripción de NS debido a esta verificación de crédito automática. “Una solicitud no siempre se basa en fuentes de datos pagadas, como registros en BKR. Las fuentes que se utilizan con frecuencia son la Cámara de Comercio, periódicos diarios y semanales, agencias de cobro y/o clientes con quienes alguien tiene (tuvo) una relación financiera, por mencionar algunos ejemplos. Esto podría garantizar que los datos no siempre sean precisos o estén actualizados y que puedan contener información de otra persona. Esto da lugar a un sistema de inteligencia artificial que no puede realizar conclusiones correctas. Sin embargo, sin verificar el resultado, se asume que alguien no es solvente.”

Midiendo prejuicio e imparcialidad

“Si trabajas con aplicaciones de IA en las que están involucradas personas, debe haber una verificación adicional en el proceso. Además, es importante no solo utilizar correctamente los datos, algoritmos e inteligencia artificial, sino también entrenar los datos. Si no lo haces, un sistema puede incorporar prejuicios de manera inconsciente. En el caso de las Autoridades Fiscales, por ejemplo, una segunda nacionalidad era un criterio oficial de selección para determinar si existía un mayor riesgo de fraude. Como resultado, grupos fueron etiquetados erróneamente como 'defraudadores'. Con varios métodos puedes - y debes - medir el sesgo y la equidad de tus datos y resultados. Simplemente, no siempre sabes por qué un sistema hace una determinada predicción. Y quieres evitar que las cosas salgan mal en todo momento, como ocurrió con el caso de las Subvenciones. Que actuaron de esa manera se debió al mal uso de la IA, un resultado del algoritmo que era incorrecto y a la falta de control sobre el resultado. Mientras se trate de personas, las verificaciones siempre deben realizarse por personas.”

Consecuencias de gran alcance

Para las empresas que trabajan con algoritmos e inteligencia artificial, pero también para los consumidores, es importante entender cómo surgen los prejuicios en la IA. Especialmente si trabajamos con datos relacionados con tu información personal. Vivimos en una era donde los datos son el nuevo oro. Pero si los datos sobre ti son incorrectos o se usan de manera inapropiada, esto puede tener un impacto negativo. Con consecuencias de gran alcance. “No deberíamos confiar ciegamente en los resultados de los algoritmos y debería haber supervisión de las empresas que los utilizan. Especialmente cuando se trata de personas. El gobierno debe hacer de esto una prioridad y las empresas deben reconocer -y asumir- su responsabilidad. Además, los consumidores deben estar conscientes de lo que está en juego. ¡Entender qué hace un algoritmo y por qué la inteligencia artificial toma ciertas decisiones es importante para todos!”

Al añadir IA explicable al algoritmo, se pueden explicar ciertas decisiones. Además, puede mostrar posibles fortalezas y debilidades de dichas decisiones. ¿Parece demasiado sesgado? Entonces puede ser cambiado o mejorado. Esto finalmente conduce a un mejor sistema de IA ¡del cual todos se benefician!

contactusattmc.png
Ponte en contacto con nosotros

Contáctanos para oportunidades, colaboraciones o preguntas. Estamos aquí para conectar.