- 5 riesgos de la Inteligencia Artificial en México fueron analizados en el conversatorio “Inteligencia artificial: Fundamentos éticos, técnicos y casos prácticos”.
- Falta preparación y recursos, ética y sesgos, seguridad cibernética, falta de normatividad y privacidad, son los desafíos que enfrenta el País.
La Inteligencia Artificial (IA) está transformando rápidamente diversos sectores, desde la industria hasta la vida cotidiana. Sin embargo, a pesar de sus innumerables beneficios, también presenta desafíos significativos, especialmente en un país como México, donde la infraestructura tecnológica y la legislación aún están en desarrollo.
En un reciente conversatorio titulado “Inteligencia artificial: Fundamentos éticos, técnicos y casos prácticos”, organizado por X eleva Group y la Secretaría de Infraestructura, Comunicaciones y Transportes (SICT), expertos de distintas áreas expusieron los principales riesgos que enfrenta México en este ámbito.
A continuación, analizamos los 5 riesgos de la inteligencia artificial en México y las implicaciones que pueden tener para el futuro del país.
Los 5 riesgos de la Inteligencia Artificial en México
1.- Falta de preparación y recursos
Uno de los principales retos que enfrenta México en el campo de la IA es la falta de infraestructura adecuada y capacitación especializada. Catalina Ovando, directora general de Política de Telecomunicaciones y de Radiodifusión de la SICT, destacó la importancia de contar con supercomputadoras y personal capacitado para avanzar en el desarrollo de IA.
“Si no tenemos supercomputadoras, capacitación e infraestructura, simplemente no podemos lograr los avances”, subrayó.
Esta brecha tecnológica entre México y los países más desarrollados limita el potencial del país para competir en el ámbito global, lo que podría agravar la desigualdad económica y tecnológica.
2. Ética y sesgos en la inteligencia artificial
La IA no es inmune a los sesgos humanos. De hecho, los algoritmos pueden perpetuar y amplificar las desigualdades existentes si no se gestionan adecuadamente. Un ejemplo claro es el uso de IA en la selección de personal, donde algoritmos basados en datos históricos pueden discriminar por género o raza. Google, por ejemplo, dejó de utilizar IA en sus procesos de selección al detectar que sus algoritmos favorecían desproporcionadamente a los hombres.
Catalina Ovando enfatizó la necesidad de un enfoque crítico y consciente en el desarrollo de IA para mitigar estos sesgos.
“Si nos centramos en el pensamiento crítico, en falacias argumentativas y sesgos cognitivos, y tratamos de ser más conscientes y humildes en el uso de la IA, los sistemas serían menos sesgados”, afirmó.
3. Seguridad cibernética
La seguridad cibernética es otro aspecto crítico en la discusión sobre la IA. Miguel Báez, subdirector de Investigación Cibernética de la Secretaría de Seguridad Ciudadana de la Ciudad de México, alertó sobre el uso de la IA con fines criminales.
Desde la creación de malware hasta la manipulación de datos, los cibercriminales pueden utilizar la IA para atacar infraestructuras críticas y comprometer la seguridad. Báez destacó la importancia de desarrollar IA que no solo sea efectiva, sino que también respete los derechos humanos y proteja la privacidad de los ciudadanos.
“En nuestro caso, el uso de Inteligencia Artificial dentro de la policía debe enfocarse en respetar los derechos humanos y la privacidad de nuestros ciudadanos”, afirmó.
4. Falta de un marco normativo adecuado
A pesar de los avances tecnológicos, México aún carece de un marco normativo robusto que regule el uso de la IA. Este vacío legal deja a empresas y ciudadanos vulnerables a posibles abusos. Catalina Ovando señaló la necesidad de establecer un marco legal claro que defina las responsabilidades y facultades de los diferentes niveles de gobierno para proteger a la población.
En comparación, la Unión Europea ya ha implementado regulaciones estrictas sobre la IA, mientras que en México, este tema apenas comienza a discutirse. La falta de regulación no solo expone a los usuarios a riesgos, sino que también puede retrasar el desarrollo de tecnologías de IA en el país.
El 22 de abril Deloitte publicó un artículo denominado “Inteligencia artificial, el camino hacia la regulación”, el cual seña como ejemplo el Diagrama para una Declaración de Derechos sobre la Inteligencia Artificial, propuesto por el gobierno de los Estados Unidos. Este documento, que podría servir como guía para la estructura de diversas regulaciones futuras, toma en cuenta cinco aspectos clave que deben ser considerados para asegurar una evolución positiva de los sistemas de IA. Estos son:
- Sistemas seguros y efectivos. Se debe garantizar la protección contra sistemas de IA que resulten inseguros o ineficientes.
- Protecciones contra la discriminación, basada en algoritmos. El riesgo de discriminación debido a sesgos integrados en un sistema de IA debe ser mitigado, y los sistemas deben ser usados y diseñados de forma incluyente e igualitaria.
- Privacidad de la información. Se debe proteger al público, de prácticas abusivas de recopilación de la información, por medio de soportes construidos dentro de los sistemas. Además, el usuario debe tener control sobre cómo se usan sus datos.
- Consentimiento y explicación. El usuario debe saber cuándo un sistema de IA está siendo utilizado, y entender claramente cómo afecta o contribuye a su experiencia, así como el impacto que tiene en el producto/servicio adquirido.
- Alternativas humanas, consideración y soporte. El usuario debería tener la oportunidad de preferir el contacto humano al de un sistema de IA, siempre que sea posible, y tener acceso a soporte humano para resolver los problemas que encuentre en su interacción con la tecnología
5. Privacidad de los datos
La protección de la privacidad es un tema crucial en el desarrollo de la IA. Aida Huerta, secretaria de Posgrado e Investigación de la Facultad de Ingeniería de la UNAM, hizo hincapié en la importancia de proteger los datos personales de los usuarios.
“La protección de datos es una parte clave. Debemos ser conscientes del ciclo de vida del dato y no pedir más información de la necesaria”, afirmó.
En un mundo cada vez más digital, los datos se han convertido en un recurso valioso, pero también en un objetivo para los delincuentes. Es fundamental que los desarrolladores de IA en México adopten prácticas responsables y transparentes para garantizar que la privacidad de los usuarios esté protegida.
La inteligencia artificial ofrece enormes oportunidades para el desarrollo en México, pero también plantea riesgos significativos que deben ser abordados con urgencia. La falta de infraestructura, los sesgos éticos, la seguridad cibernética, la ausencia de un marco normativo y la privacidad de los datos son desafíos que requieren una atención inmediata. Solo a través de un enfoque integral que combine la tecnología con la ética y la regulación, México podrá aprovechar al máximo el potencial de la IA sin comprometer la seguridad y el bienestar de sus ciudadanos.