Index – Tech-Science – La Comisión Europea está restringiendo el uso de inteligencia artificial

Se aplicarán reglas estrictas a los sistemas llamados inteligencia artificial de alto riesgo, como sugieren la BBC y la Comisión Europea, que también afectarán los algoritmos utilizados por la policía y el reclutamiento.

Es discreto y está lleno de agujeros.

Los expertos con los que habló la BBC dijeron que las reglas son vagas y contienen lagunas. Por ejemplo, el borrador no aborda el uso militar de inteligencia artificial o los sistemas utilizados por las autoridades públicas para «proteger la seguridad pública».

La lista propuesta de sistemas MI prohibidos bajo el borrador incluye:

  • Sistemas MI de vigilancia general;
  • Sistemas de MI utilizados para la evaluación social;
  • Sistemas de MI que explotan información o «predicciones» y las usan contra una persona o grupo de personas para aprovechar sus debilidades.

El analista de política europea Daniel Lovre tuiteó que estas definiciones son muy generales.

¿Cómo podemos determinar qué es perjudicial para alguien? ¿Quién puede apreciar eso?

Escribió en un tuit político.

Según el Louvre, A.

La inteligencia artificial es de alto riesgo

Los Estados miembros deben implementar una mayor supervisión para controlar estos sistemas, incluida la necesidad de designar organismos de evaluación para probar, validar y verificar estos sistemas.

Además, cualquier empresa que desarrolle o no proporcione información adecuada sobre servicios prohibidos puede enfrentar multas de hasta el 4 por ciento de sus ingresos globales, similares a multas por violaciones del Reglamento General de Protección de Datos (GDPR).

Según Leufer, los ejemplos de infarto de miocardio de alto riesgo incluyen:

  • Sistemas que tienen prioridad en la transmisión de la normativa relativa a los servicios de emergencia;
  • Regulaciones que rigen el acceso a las instituciones educativas o la asignación de personas;
  • Algoritmos de selección de mano de obra;
  • Algoritmos de calificación crediticia;
  • Algoritmos utilizados para evaluar los riesgos de las personas.
  • Algoritmos de predicción de delitos.
READ  ¿Qué es ciencia? │KISZO. ENTREVISTA

Louver también agregó que las propuestas «deberían extenderse para incluir todos los sistemas de inteligencia artificial en el sector público, independientemente del nivel de riesgo identificado», señalando que:

Esto se debe a que las personas generalmente no pueden decidir si interactuar con un sistema de IA en el sector público.

Además de requerir que los nuevos sistemas de IA estén bajo supervisión humana, la organización también propone integrar el llamado «interruptor de bloqueo» en los sistemas de IA de alto riesgo. En realidad, puede ser un botón de apagado u otra forma de apagar el sistema inmediatamente si es necesario.

Los fabricantes de IA se están centrando tanto en estas propuestas que requerirá un cambio fundamental en el diseño de MI.

Dice Herbert Saniker, abogado del bufete de abogados Clifford Chance en Londres.

‘Deja de ser manipulador’

Mientras tanto, Michael Fell, que estudia los derechos digitales y la regulación en el University College de Londres, ha destacado una cláusula que obliga a las organizaciones a indicar con antelación cuando usan tecnología deep fake, un uso particularmente controvertido de MI para crear personas falsas o reales para manipular fotos y clips de personas. .el video.

Phil también dijo que la legislación está en primer lugar.

Se han dirigido a empresas de TI y consultores que a menudo venden tecnología MI a escuelas, hospitales, policía y empleadores para un «uso totalmente sin sentido».

Pero agregó que las empresas de tecnología que usaban MI para «manipular a los usuarios» también necesitaban cambiar sus prácticas.

La Comisión Europea realiza la danza de la cuerda

Con este proyecto de ley, la Comisión Europea está participando en una danza de la cuerda muy peligrosa, ya que debe, por un lado, garantizar que la IA sea de hecho una «herramienta» utilizada «solo para el bienestar y el bienestar humanos», pero al mismo tiempo.

Además, el borrador reconoció que la EM es de hecho una parte integral de muchos aspectos de nuestras vidas.

Centro jurídico europeo sin ánimo de lucro, que también opera en Hungría y contribuye a la Comisión Europealibros blancosTambién mencionó que hay «muchas ambigüedades y lagunas en el proyecto de ley».

El enfoque de la Unión Europea para la definición binaria de alto y bajo riesgo es, en el mejor de los casos, negligente y, en el peor de los casos, arriesgado debido a la falta de contexto y matices en el complejo ecosistema de IA que ya existe en la actualidad.

Primero, el comité debe considerar los riesgos de los regímenes de IM dentro de un marco legal, como riesgos para los derechos humanos, el estado de derecho y la democracia.

En segundo lugar, el comité debería rechazar la estructura excesivamente simplista de riesgo excesivo y considerar un «enfoque basado en niveles» para la evaluación del riesgo de IM.

Podemos leer su análisis.

Estas numerosas discrepancias también indican que los detalles se perfeccionarán antes de que el proyecto de ley se anuncie oficialmente la próxima semana. La implementación de la tutoría es un proceso que llevará años.

(BBC)

(Foto de cubierta: Los visitantes verán un robot bailando en el festival de innovación y negocios digitales más grande de Europa, CeBIT en Hannover el 12 de junio de 2018. Foto: Focke Strangmann / MTI / EPA)

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Scroll al inicio