ROIPRESS / EUROPA - En un
reciente comunicado, la Comisión Europea propuso nuevas formas y medidas para
regular el uso de la Inteligencia Artificial
(IA) y
controlar sus ámbitos de aplicación y uso, antes de que se implante de forma
masiva en todo el mundo, hecho que sucederá en los próximos años.
El documento reconoce el potencial de esta nueva tecnología en el ámbito de los negocios, la administración pública y la rutina cotidiana de cada persona. Sin embargo, sostiene que la IA suscita una enorme preocupación, ya que debe existir un código ético que proteja a las personas frente a los avances de esta innovación.
Como ha explicado Margrethe Vestager, vicepresidenta ejecutiva de la Comisión Europea y encargada de la política digital, es fundamental poder confiar en esta tecnología, dado que tiene el potencial de afectar positivamente en la ciudadanía, y las autoridades deben asegurarse de que es confiable y se utiliza de forma ética.
En este contexto de innovación y desarrollo, además de cumplir un rol clave en mejorar la vida de las personas, la IA también ha impulsado la tecnología educativa y la eficiencia en diferentes procesos de negocios. En la carrera por mejorar la competitividad, cada vez más empresas e instituciones incorporan herramientas de automatización y big data. No obstante, el uso de esta tecnología se debe dar de manera responsable, dado que existen muchos riesgos. Países como España han aprobado estrategias para impulsar las inversiones en IA y cuidar su uso responsable en las organizaciones.
Así, la futura regulación obligará a las empresas que proporcionan servicios de IA en áreas de alto riesgo que prueben a las autoridades que su trabajo se haga de forma segura y dentro del marco legal.
Debido a que la nueva regulación tardará años en desarrollarse, la Comisión Europa ha resaltado la importancia de establecer un criterio básico que regirá las leyes sobre el uso de la IA en la región.
Asimismo, ha dejado en claro que estas leyes se deben respetar, por lo que se propuso que quienes incumplan las regulaciones establecidas reciban multas de hasta el 6 % de sus ingresos globales.
En concreto, la propuesta de la Comisión Europea sigue un planteamiento basado en los niveles de riesgo. Con respecto al riesgo inadmisible, se prohibirán los sistemas que se consideren una clara amenaza para los derechos de las personas y la seguridad nacional. Esto abarca las aplicaciones que manipulan el comportamiento humano y que permiten la “puntuación social” por parte de los Gobiernos.
El alto riesgo, por su parte, considera a sistemas empleados en infraestructuras críticas, formación educativa o profesional, servicios públicos y privados esenciales y administración de justicia y procesos democráticos.
El riesgo
limitado se refiere a obligaciones específicas de transparencia al utilizar
sistemas como robots conversacionales. Finalmente, el proyecto del Reglamento
no interviene en tecnología de riesgo nulo, como los videojuegos.
No hay comentarios:
Publicar un comentario