El debate sobre la inteligencia artificial (IA) está en pleno auge y el escepticismo es alto, pero la IA ha llegado para quedarse. Aunque algunos titulares critican a las grandes tecnológicas por las redes sociales impulsadas por IA o herramientas de consumo cuestionables, la IA en sí misma está volviéndose indispensable. Su eficiencia es inigualable, prometiendo beneficios que ningún negocio ni gobierno puede ignorar.
Muy pronto, la IA será tan integral en nuestras vidas como la electricidad, impulsando nuestros automóviles, modelando la atención sanitaria, asegurando nuestros bancos y manteniendo las luces encendidas.
La conversación pública sobre la IA se ha centrado en gran medida en la ética, la desinformación y el futuro del trabajo. Pero hay un tema vital que está pasando desapercibido: la seguridad de la IA misma.
Con la IA integrada en casi todas las partes de la sociedad, estamos creando sistemas masivos e interconectados con el poder de moldear –o, en las manos equivocadas, destruir– nuestras vidas diarias.
A medida que damos a la IA más control sobre tareas, desde el diagnóstico de enfermedades hasta la gestión del acceso físico a ubicaciones sensibles, las consecuencias de un ciberataque crecen exponencialmente. Lo que resulta alarmante es que algunas IA son tan frágiles como poderosas.
Existen dos formas principales en que la IA puede atacar los sistemas. La primera consiste en robar datos, comprometiendo todo, desde registros de salud personales hasta secretos corporativos sensibles.
Los hackers pueden engañar a los modelos para que generen información segura, ya sea explotando bases de datos médicas o engañando a los chatbots para que eludan sus propios mecanismos de seguridad.
La segunda forma es sabotear los propios modelos, alterando los resultados de manera peligrosa. Un automóvil impulsado por IA que es engañado para leer una señal de Stop como si fuera una señal de 70 millas por hora, ilustra lo real que puede ser esta amenaza. Y a medida que la IA se expanda, la lista de posibles ataques solo crecerá.
Sin embargo, abandonar la IA debido a estos riesgos sería el mayor de los errores. Sacrificar la competitividad por la seguridad dejaría a las organizaciones dependientes de terceros, sin experiencia ni control sobre una tecnología que se está convirtiendo rápidamente en esencial.
Para evitar riesgos en el uso de la IA, lo primero es elegir con sabiduría. No toda IA es igualmente vulnerable a los ataques. Los modelos de lenguaje grandes, por ejemplo, son muy susceptibles porque se basan en vastos conjuntos de datos y métodos estadísticos. Pero otros tipos de IA, como los modelos simbólicos o híbridos, son menos intensivos en datos y operan con reglas explícitas, lo que los hace más difíciles de vulnerar.
Implementar defensas comprobadas. Herramientas como la marca de agua digital, la criptografía y el entrenamiento personalizado pueden fortalecer los modelos de IA frente a amenazas emergentes. Por ejemplo, “Battle Box” de Thales permite a los equipos de ciberseguridad someter a prueba a los modelos de IA para identificar y corregir vulnerabilidades antes de que los hackers puedan explotarlas.
Mejorar la ciberseguridad organizacional. La IA no opera de manera aislada, es parte de un ecosistema de información más amplio. Las medidas tradicionales de ciberseguridad deben ser reforzadas y adaptadas para la era de la IA. Esto comienza con la capacitación de los empleados, ya que el error humano sigue siendo el talón de Aquiles de cualquier sistema de ciberseguridad.
Algunos podrían pensar que la batalla sobre la inteligencia artificial es solo otro capítulo en el conflicto continuo entre los actores malintencionados y las víctimas involuntarias. Pero esta vez, las apuestas son más altas que nunca. Si la seguridad de la IA no se prioriza, corremos el riesgo de ceder el control a aquellos que usarían su poder para hacer daño.
Facebook comments