Un tercio de las empresas ya se han quemado con IA

La mayoría de las organizaciones que aprovechan las nuevas tecnologías creen que necesitan pautas claras para lidiar con el «sesgo de la IA» y los problemas complejos asociados con él.

Ya hay señales tangibles del fenómeno de que el proceso sesgado de la IA puede causar daños a las empresas además de las consecuencias sociales mencionadas a menudo. No es de extrañar que, con la difusión de las nuevas tecnologías, exista una creciente necesidad de una regulación objetiva del área también en esta ubicación, para que estos problemas puedan eliminarse lo más rápido posible. Del informe DataRobot Software HouseEn colaboración con el Foro Económico Mundial (WEF) e investigadores universitarios.

El informe State of AI Bias procesó las respuestas de más de 350 organizaciones en una variedad de industrias. Curiosamente, más de la mitad de los encuestados, el 54 por ciento, están preocupados por el llamado fenómeno del «sesgo de la IA», los riesgos del funcionamiento sesgado de los sistemas automatizados basados ​​en la IA. Sin embargo, lo que es aún más interesante es que la gran mayoría de las empresas, el 81 %, expresó la necesidad de una regulación gubernamental más estricta para que sea más fácil abordar tales riesgos.

Aunque el uso más profundo de la IA aún no es esencial en la mayoría de las organizaciones, el daño específico se remonta a la aparición del sesgo de la IA. Más de un tercio de las empresas participantes, el 36 por ciento, experimentó desafíos o algún impacto comercial negativo directo; De ellos, el 62 por ciento informó una pérdida de ingresos, el 61 por ciento de los clientes, el 43 por ciento de los empleados que se fueron y el 35 por ciento de los costos incurridos debido a demandas o acciones legales.

READ  Furgoneta doméstica para mochileros - conducción

No será fácil de resolver.

El daño al prestigio de la marca y la cobertura negativa de los medios se reportaron en un 6 por ciento, lo que no parece alto en sí mismo, pero nuevamente, vale la pena considerar el nivel relativamente bajo de adaptación de las tecnologías MI, al menos en términos de perspectivas para lanzamientos futuros. . El principal desafío para eliminar el sesgo, por supuesto, implica una comprensión profunda de por qué los algoritmos toman ciertas decisiones, y esto requiere la orientación de los usuarios.

En particular, los problemas que pueden atribuirse a esto suelen ser muy complejos y, como señalan los expertos, la eliminación total de la regulación unilateral o sesgada en la regulación de la IA puede tener las mismas consecuencias nocivas que la discriminación sistemática debida al sesgo de la IA. Esto se debe a que un sistema de aprendizaje automático que no puede derivar generalizaciones en realidad no puede aprender, y la eficiencia del modelo se reduce por completo.

Según DataRobot, se han logrado avances en esta área, como el borrador del Reglamento MI propuesto por la Unión Europea. Sin embargo, queda mucho por hacer para garantizar que los modelos utilizados sean justos, confiables, transparentes e interpretativos. Los funcionarios de WEF agregan que la investigación de DataRobot ha redefinido lo que los expertos han visto durante mucho tiempo: la línea entre las prácticas éticas y no éticas ha sido demasiado difusa cuando se trata de soluciones de MI.

La confesión madura lenta y lentamente

Jefe de la Unidad de Inteligencia Artificial y Aprendizaje Automático de la organización y miembro del Comité Ejecutivo del Foro Económico Mundial, Kay Firth Butterfield Sin embargo, también señala que los CIO, los CIO, los gerentes, los científicos de datos y los gerentes de desarrollo que participaron en la encuesta comprenden y aprecian claramente la importancia y el impacto de los problemas éticos para MI. Afortunadamente, a medida que la industria madure, habrá más y más soluciones disponibles que pueden ayudar a compensar las distorsiones de la IA.

READ  Índice - Belfold - IKEA Atención, puede haber objetos metálicos en el bizcocho de almendras y que una silla giratoria es peligrosa

En un pronóstico de Forrester para 2022, por ejemplo, un investigador de mercado predice que el mercado de «soluciones MI responsables» se duplicará este año en comparación con el año anterior. Proporciona capacidades que también ayudan a las empresas usuarias a aplicar principios como la equidad y la transparencia. El interés en tales dispositivos, en línea con los hallazgos de la investigación de DataRobot, ya se está extendiendo a través de industrias fuertemente reguladas y está ganando cada vez más interés por parte de las empresas que integran la IA en los procesos comerciales críticos.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Scroll al inicio