¿Necesitamos una agencia reguladora de las inteligencias artificiales?
- Lab Legal
- Sep 6, 2017
- 4 min read

Es un realidad que los algoritmos que utilizan las empresas, bancos y el Estado mediante sus agencias de salud o seguridad en nuestra vida diaria, desde si somos admitidos a una escuela hasta que tipo de seguro podemos comprar, pueden tomar decisiones erróneas o discriminatorias.
Los impactos de estas decisiones de pueden tener consecuencias graves sobre las vidas de las personas, como lo puede ser una negativa a ser asegurado. Parece ser que esto es razón suficiente para llamar a una tercera persona u órgano que permita asegurar transparencia en cómo deciden los algoritmos, procurando en todo momento resultados que no sean discriminatorios.[1]
Con la explosión y ubicuidad de la inteligencia artificial, muchas empresas y órganos estatales utilizan algoritmos para procesar información de las personas. En muchas ocasiones estos algoritmos son secretos, para evitar que les sean copiados (secreto comercial), razón por la cual no es posible saber cuáles han sido las iteraciones que han seguido para resolver un determinado problema en un sentido u otro.
Ante la evidencia de que las inteligencias artificiales pueden tomar malas decisiones, existen voces que hablan de la necesidad de crear una agencia reguladora[2] que tenga facultades para auditar los algoritmos y determinar su transparencia a efecto de evitar generar resultados no justos o incluso discriminatorios.
Es cierto que actualmente, los errores de la inteligencia artificial pueden ser impugnados, ya sea para demandar su nulificación o rectificación.
La Ley General de Protección de Datos Personales en Posesión de Sujetos Obligados establece la posibilidad de impugnar determinaciones relativos a datos personales que hayan sido resueltas de forma automatizada[3].
No obstante, de conformidad con la misma ley, esta circunstancia no obliga de manera alguna a que se explique la razón por la cual el procesamiento de los datos generó un determinado resultado[4].
En este sentido, sólo se otorga la posibilidad de corregir el resultado pero no hay ninguna explicación de cuáles fueron las razones que llevaron al mismo. Es claro el interés de empresas particulares o agencias gubernamentales en no ventilar, por razones comerciales o de seguridad, los algoritmos que utilizan en sus sistemas. Por tanto, no hay forma de saber cómo es que un algoritmo tomó una decisión.
Incluso existen dudas sobre si sería posible que una entidad reguladora pudiese fiscalizar y entender algoritmos complejos, al ser sistemas cambiantes que varían en atención a la información que es procesada (machine learning/deep learning) y que no tienen supervisión alguna[5]. Se dice que este tipo de algoritmos son inescrutables, incluso para sus creadores[6].
No obstante, esto no quita la importancia de saber cuales son los procesos mediante los cuales un algoritmo llegó a ciertas decisiones. La posibilidad de que un algoritmo mal funcione o genere un accidente (supongamos la falla de un automóvil autónomo) hace necesario contar con la evidencia de que fue lo que salió mal. Es un poco como una caja negra en los accidentes aéreos, pero aplicado a robots defectuosos.
Esta necesidad de retroalimentación a efecto de que el algoritmo se pueda explicar a sí mismo que es lo que hizo bien o mal en determinada situación y contexto (algo que hasta la fecha sólo los seres humanos podemos hacer) refuerza la idea de que es necesario algún tipo de entidad regulatoria.
Asimismo, es necesario considerar si la forma en la cual se ha construido el algoritmo no contienen algún error en sus parámetros que termine por generar resultados no acordes a la realidad o a las leyes de la probabilidad. Por ejemplo, el universo de datos que se toma o el peso que se da a alguna característica específica de la información que se procesa. Pensemos recientemente en los exámenes de admisión al bachillerato de la UNAM, donde jóvenes fueron rechazados por problemas de cómputo de los resultados[7].
También hemos tenido problemas con ciertos programas de reconocimiento facial (biométricos), en los cuales una persona es confundida por otra que tiene problemas legales de conformidad a ciertas bases de datos o donde se puede generar discriminación en atención al tono de piel de una persona[8].
Es innegable que la inteligencia artificial debe ser segura, controlable y responder a intereses humanos[9]. En este sentido, cualquier agencia regulatoria debe tener como prioridad el regular la creación de algoritmos que sigan estos baremos mínimos. Incluso, se puede pensar, como lo hace Matthew Scherer, en que sea una agencia que se dedique a certificar que el intelecto sintético sea seguro y no produzca resultados indeseados.
En este sistema, las empresas que han sido certificadas serían sometidas a un régimen de responsabilidad diferenciado de aquellas que no lo están. De esta forma, existe un incentivo para la certificación y no es necesario generar demasiada regulación.
Si bien es cierto que este modelo regulatorio suena atractivo, se ha considerado que sigue sin atender el problema de los algoritmos que no pueden ser supervisados y sobre los cuales no es posible prever de forma anticipada su posible comportamiento.
Estamos empezando a ver los problemas que se generan con la interacción de las inteligencias artificiales con seres humanos en la prestación de servicios y la solución de problemas cotidianos. La regulación de las mismas requerirá de mucha creatividad, tomando en consideración que nuestro sistema jurídico actual parece ser insuficiente para atender los problemas en ciernes.
[1] Ian Sample, Science Editor. The Guardian. https://www.theguardian.com/technology/2017/jan/27/ai-artificial-intelligence-watchdog-needed-to-prevent-discriminatory-automated-decisions
[2] Wachter, Sandra and Mittelstadt, Brent and Floridi, Luciano, Why a Right to Explanation of Automated Decision-Making Does Not Exist in the General Data Protection Regulation (December 28, 2016). International Data Privacy Law, Forthcoming. Available at SSRN: https://ssrn.com/abstract=2903469
[3] Artículo 4. La presente Ley será aplicable a cualquier tratamiento de datos personales que obren en soportes físicos o electrónicos, con independencia de la forma o modalidad de su creación, tipo de soporte, procesamiento, almacenamiento y organización.
[4] Artículo 47. El titular podrá oponerse al tratamiento de sus datos personales o exigir que se cese en el mismo, cuando: I. Aun siendo lícito el tratamiento, el mismo debe cesar para evitar que su persistencia cause un daño o perjuicio al titular, y II. Sus datos personales sean objeto de un tratamiento automatizado, el cual le produzca efectos jurídicos no deseados o afecte de manera significativa sus intereses, derechos o libertades, y estén destinados a evaluar, sin intervención humana, determinados aspectos personales del mismo o analizar o predecir, en particular, su rendimiento profesional, situación económica, estado de salud, preferencias sexuales, fiabilidad o comportamiento.
[5] https://machinelearningmastery.com/a-tour-of-machine-learning-algorithms/
[6] Wachter, Mittelstadt and Floridi. Op. Cit.
[7]http://www.jornada.unam.mx/ultimas/2017/08/07/unam-reconocio-error-en-mas-de-11-mil-examenes-comipems
[8]https://www.theguardian.com/technology/2016/sep/08/artificial-intelligence-beauty-contest-doesnt-like-black-people
[9] Scherer, Matthew U., Regulating Artificial Intelligence Systems: Risks, Challenges, Competencies, and Strategies (May 30, 2015). Harvard Journal of Law & Technology, Vol. 29, No. 2, Spring 2016. Available at SSRN: https://ssrn.com/abstract=2609777 or http://dx.doi.org/10.2139/ssrn.2609777