14 de marzo de 2024
14 de marzo de 2024
Resulta raro el día en que no encontramos en los medios de comunicación una nueva revolución traída por la Inteligencia Artificial.
Rápidamente se suceden los nuevos desarrollos, nuevas aplicaciones, nuevas utilidades de algún sistema de IA que dicen, radicalmente cambiará nuestro día a día.
Lo que es indudable es que la fuerza de transformación a todos los niveles de la IA nos lleva al convencimiento de que nos encontramos ante una Revolución que está llamada a cambiar nuestro modo de trabajar, de vivir, de relacionarnos; y por ello la Unión Europea a través del nuevo Reglamento de Inteligencia Artificial aprobado el pasado 13 de marzo por el Parlamento Europeo, trata de salvaguardar los derechos fundamentales de las personas, con la firme intención de no quedarse tampoco atrás en el desarrollo tecnológico y por tanto económico.
La IA no es una creación reciente, se remonta a los años 50 del siglo pasado y, en su devenir, ha transitado por etapas de auge, pero también de caída.
En el año 2023, con la irrupción en la vida cotidiana de Chat GPT como bien de consumo al alcance de todos y de todo, la IA vivió una explosión mundial.
Al calor de tales circunstancias, la Unión Europea pisó el acelerador en el desarrollo de una norma cuya tramitación se había iniciado en el año 2021.
El 8 de diciembre de 2023, bajo presidencia española de la Unión, las Instituciones: Parlamento, Comisión y Consejo, llegaron a un acuerdo histórico sobre el nuevo Reglamento Europeo de IA, lo cual supuso un hito a nivel mundial, por la fuerza de exportación normativa que tiene Europa a través del conocido como “Efecto Bruselas”, efecto que, en principio, convertirá el texto aprobado en Europa en el estándar global en la materia, o no.
El texto acordado fue refrendado por el COREPER, Comité europeo de representantes permanentes el pasado 2 de febrero, y finalmente fue aprobado el 13 de marzo de este año por el Parlamento Europeo, entrando en vigor a los dos años desde su publicación, como regla general.
La Unión Europea ha tenido que balancear la protección de la seguridad, el respeto a los derechos fundamentales y los valores de la Unión, con el no menos importante interés por impulsar la inversión e innovación dentro de sus fronteras, por una necesidad primaria de supervivencia frente a grandes potencias como lo son los Estados Unidos y China, entre otras.
El riesgo de la IA, según el Reglamento
El Reglamento Europeo de Inteligencia Artificial, clasifica los sistemas de IA por niveles de riesgo, imponiendo exigencias y normas más estrictas en función del nivel de riesgo que para los Derechos Fundamentales implique el uso del sistema en cuestión.
Los sistemas de IA de riesgo mínimo o nulo no implicarán obligaciones reglamentarias, aunque sí se recomienda que sigan estándares voluntarios, para resultar más confiables para el ciudadano.
Los sistemas de IA de riesgo limitado estarán sujetos a obligaciones de transparencia (para que los usuarios sean conscientes de que interactúan con un sistema de IA), tendrán que tener gestión y supervisión humana, robustez técnica y seguridad, respeto a la privacidad y gobernanza del dato, y ser respetuosos con la diversidad, no incurriendo en discriminaciones ni deslealtades.
Los sistemas de IA de alto riesgo tendrán que cumplir con obligaciones tanto en la fase de diseño, como en la de producción, como en la de comercialización, relativas a gestión de riesgos, gobernanza de datos, documentación técnica, archivos de registro automático, transparencia, supervisión humana, ciberseguridad y evaluación de conformidad.
Por último, los Sistemas de IA de riesgo inaceptable, como los sistemas de clasificación social, el reconocimiento de emociones en determinados ámbitos, las técnicas de manipulación de decisiones, entre otros, quedan prohibidos por el Reglamento.
Extramuros del Reglamento Europeo de IA se encuentran las áreas ajenas al alcance del derecho de la Unión, los sistemas creados para fines militares o de defensa, para investigación o innovación, los de uso no profesional, y las materias de Seguridad Nacional de competencia exclusiva y excluyente de los Estados Europeos.”
Impacto de la IA en el sector sanitario
Si hay un sector que se está viendo impactado por el uso y desarrollo de la IA, es el sanitario. Tareas que se automatizan, relaciones con los pacientes, diagnósticos mucho más precisos, predicción de enfermedades, búsqueda de información, etc… irrumpen en nuestro día a día.
Para el ciudadano de a pie, la primera reacción que genera la IA es la de miedo, por quedarse sin trabajo, por poder fiarse de lo que uno ve, o de lo que uno escucha, llegando incluso a hablar del peligro que supone la IA para la humanidad; por lo que una regulación restrictiva y protectora es bien recibida.
El sector empresarial, sin embargo, lo que teme es que esta norma vaya a tensionar de modo inaceptable el desarrollo tecnológico en Europa, y como consecuencia de ello, lastrar nuestra economía por no haber sabido coger a tiempo el tren de la innovación.
Durante las negociaciones del texto y hasta su aprobación por el Parlamento Europeo, países como Francia, Italia o Alemania han sido muy críticos con la redacción de éste, por entender que constituía un freno al desarrollo en Europa, aunque finalmente el acuerdo se ha alcanzado, quedando mucho que desarrollar en su seno.
Los europeos confiamos en que al igual que ha ocurrido en otros ámbitos, como en el del respeto a la privacidad, Europa se erija en guardiana de nuestros derechos y libertades, exportando al mundo esta línea de pensamiento y acción.
Y ello porque, si bien es cierto que nos jugamos mucho en cuanto a desarrollo tecnológico, también lo hacemos en cuanto a seguir siendo sujetos merecedores de respeto a nuestros derechos fundamentales.
Dos años son el período que se establece para la entrada en vigor de la norma desde su publicación, con carácter general; pero a la velocidad que se desarrolla la IA, la norma puede resultar obsoleta cuando esté llamada a aplicarse, habiendo nacido a la vida ya caduca.
La IA como elemento acelerador de los ensayos clínicos
Existe una interesante iniciativa europea que, bajo el título “Accelerating Clinical Trials in the EU (ACT EU), pretende mejorar y acelerar la realización de ensayos clínicos en la Unión Europea. Este acta aboga por simplificar procedimientos administrativos y regulatorios, facilitar el acceso a datos y recursos, y promocionar la colaboración entre las partes interesades.
Estos objetivos encajan a la perfección con las posibilidades que ofrece la IA en la optimización de procesos (como la selección de pacientes, el diseño del estudio y la monitorización de datos), el análisis de datos (para analizar grandes conjuntos de datos generados durante los ensayos clínicos, ayudando a identificar patrones, correlaciones y tendencias que podrían no ser evidentes para los investigadores de manera manual) o la propia personalización de tratamientos (al permitir la identificación de subgrupos de pacientes que podrían beneficiarse más de ciertos tratamientos o que podrían experimentar efectos secundarios específicos).
En definitiva, la Inteligencia Artificial, con las debidas salvedades y una regulación adecuada, puede y debe desempeñar un papel protagonista en el desarrollo de la ACT EU en lo que concierne a la investigación clínica.
¿Qué ocurre si el resto del mundo sigue adelante con una IA más libre en su desarrollo y Europa queda atrás?
Europa es la cuna de los Derechos y Libertades Individuales, del Juramento Hipocrático, de los Valores de referencia mundial; sin embargo, corrientes de pensamiento fuera de nuestras fronteras la acusan de ser la niña mimada que debe alcanzar la vida adulta y hacer frente a sus necesidades, como la defensa, la salud, el progreso; tal y como hacen sus vecinos, los cuales sacrifican el bienestar individual de las personas a favor del desarrollo económico.
Qué duda cabe que un texto respetuoso con los derechos de las personas puede suponer un freno a la innovación, pero Europa está siendo consecuente con su identidad, con su historia; y para no quedar reducida a la nimiedad, en paralelo impulsa toda una política de compartición de datos en marcos seguros, sandboxes de prueba para incentivar a las empresas en los desarrollos tecnológicos, entre otras iniciativas.
Las compañías especializadas en Investigación Clínica e IA, como Sermes CRO, debemos centrarnos en desarrollar sistemas de IA innovadores y punteros, que resuelvan problemas a la industria, pero siempre dentro de un marco de IA ética y confiable, para lograr un impacto positivo en las personas, cuyo cuidado constituye nuestro principal objetivo.