• Aerolíneas
  • Aeronáutica
  • Aeropuertos
  • Columnistas
  • Organismos
  • Aeroespacial
  • Innovación
  • Normatividad
  • Fuerza Aérea
No Result
View All Result
  • Aerolíneas
  • Aeronáutica
  • Aeropuertos
  • Columnistas
  • Organismos
  • Aeroespacial
  • Innovación
  • Normatividad
  • Fuerza Aérea
No Result
View All Result
No Result
View All Result
Home Aeronáutica

Fortalece Thales debate sobre la seguridad de la IA ante riesgos crecientes

Redaccion A21 by Redaccion A21
17 diciembre, 2024
5
SHARES
EnviarCompartirCompartir

Fortalece Thales debate sobre la seguridad de la IA ante riesgos crecientes

El debate sobre la inteligencia artificial (IA) está en pleno auge y el escepticismo es alto, pero la IA ha llegado para quedarse. Aunque algunos titulares critican a las grandes tecnológicas por las redes sociales impulsadas por IA o herramientas de consumo cuestionables, la IA en sí misma está volviéndose indispensable. Su eficiencia es inigualable, prometiendo beneficios que ningún negocio ni gobierno puede ignorar.

Muy pronto, la IA será tan integral en nuestras vidas como la electricidad, impulsando nuestros automóviles, modelando la atención sanitaria, asegurando nuestros bancos y manteniendo las luces encendidas. 

La conversación pública sobre la IA se ha centrado en gran medida en la ética, la desinformación y el futuro del trabajo. Pero hay un tema vital que está pasando desapercibido: la seguridad de la IA misma. 

Con la IA integrada en casi todas las partes de la sociedad, estamos creando sistemas masivos e interconectados con el poder de moldear –o, en las manos equivocadas, destruir– nuestras vidas diarias. 

A medida que damos a la IA más control sobre tareas, desde el diagnóstico de enfermedades hasta la gestión del acceso físico a ubicaciones sensibles, las consecuencias de un ciberataque crecen exponencialmente. Lo que resulta alarmante es que algunas IA son tan frágiles como poderosas.

Existen dos formas principales en que la IA puede atacar los sistemas. La primera consiste en robar datos, comprometiendo todo, desde registros de salud personales hasta secretos corporativos sensibles. 

Los hackers pueden engañar a los modelos para que generen información segura, ya sea explotando bases de datos médicas o engañando a los chatbots para que eludan sus propios mecanismos de seguridad.

La segunda forma es sabotear los propios modelos, alterando los resultados de manera peligrosa. Un automóvil impulsado por IA que es engañado para leer una señal de Stop como si fuera una señal de 70 millas por hora, ilustra lo real que puede ser esta amenaza. Y a medida que la IA se expanda, la lista de posibles ataques solo crecerá.

Sin embargo, abandonar la IA debido a estos riesgos sería el mayor de los errores. Sacrificar la competitividad por la seguridad dejaría a las organizaciones dependientes de terceros, sin experiencia ni control sobre una tecnología que se está convirtiendo rápidamente en esencial.

Para evitar riesgos en el uso de la IA, lo primero es elegir con sabiduría. No toda IA es igualmente vulnerable a los ataques. Los modelos de lenguaje grandes, por ejemplo, son muy susceptibles porque se basan en vastos conjuntos de datos y métodos estadísticos. Pero otros tipos de IA, como los modelos simbólicos o híbridos, son menos intensivos en datos y operan con reglas explícitas, lo que los hace más difíciles de vulnerar.

Implementar defensas comprobadas. Herramientas como la marca de agua digital, la criptografía y el entrenamiento personalizado pueden fortalecer los modelos de IA frente a amenazas emergentes. Por ejemplo, “Battle Box” de Thales permite a los equipos de ciberseguridad someter a prueba a los modelos de IA para identificar y corregir vulnerabilidades antes de que los hackers puedan explotarlas.

Mejorar la ciberseguridad organizacional. La IA no opera de manera aislada, es parte de un ecosistema de información más amplio. Las medidas tradicionales de ciberseguridad deben ser reforzadas y adaptadas para la era de la IA. Esto comienza con la capacitación de los empleados, ya que el error humano sigue siendo el talón de Aquiles de cualquier sistema de ciberseguridad.

Algunos podrían pensar que la batalla sobre la inteligencia artificial es solo otro capítulo en el conflicto continuo entre los actores malintencionados y las víctimas involuntarias. Pero esta vez, las apuestas son más altas que nunca. Si la seguridad de la IA no se prioriza, corremos el riesgo de ceder el control a aquellos que usarían su poder para hacer daño.           

Tags: inteligencia artificialThales

Noticias Relacionadas

Ofrece compañía mexicana propuesta de seguridad con drones

Ofrece compañía mexicana propuesta de seguridad con drones

25 junio, 2025
Aumentan ciberataques al sector aeronáutico en 600% en el último año: Thales

Aumentan ciberataques al sector aeronáutico en 600% en el último año: Thales

20 junio, 2025
Apuesta Volaris por IA para eficientar procesos

Apuesta Volaris por IA para eficientar procesos

20 junio, 2025
Revoluciona la inteligencia artificial el desempeño de la industria aérea: OAG

Revoluciona la inteligencia artificial el desempeño de la industria aérea: OAG

12 junio, 2025
Next Post
Avanza Joby Aviation hacia la certificación de la FAA tras pruebas clave en su eVTOL

Avanza Joby Aviation hacia la certificación de la FAA tras pruebas clave en su eVTOL

Aerobreves

Aerobreves

Más Leídas

  • La Barca de Guaymas

    La Barca de Guaymas

    5 shares
    Share 2 Tweet 1
  • Confirma India análisis local de caja negra tras accidente de Air India

    5 shares
    Share 2 Tweet 1
  • Recibe Mexicana su primer avión Embraer E195-E2

    5 shares
    Share 2 Tweet 1
  • Arriba el primero de 20 aviones Embraer para la flota de Mexicana

    5 shares
    Share 2 Tweet 1
  • Estrategias para el impulso del sector espacial de México

    5 shares
    Share 2 Tweet 1
  • Embraer, la gran oportunidad perdida de boeing

    5 shares
    Share 2 Tweet 1

Categorías

  • Aerolíneas
  • Aeronautica
  • Aeropuertos
  • Opinión
  • Organismos
  • Aeroespacial
  • Innovación
  • Normatividad
  • Fuerza Aerea
  • Aerolíneas

Otros Enlaces

Contacto
Media Kit
Aviso de Privacidad
Política de cookies

© 2025 A21 - Todos los derechos reservados.

Consentimiento de uso de cookies

Para ofrecer la mejor experiencia, utilizamos tecnologías como cookies para almacenar y/o acceder a la información del dispositivo. Su consentimiento para estas tecnologías nos permitirá procesar datos como el comportamiento de navegación o los identificadores únicos en este sitio. La falta de consentimiento o la revocación del mismo podrían afectar negativamente a ciertas características y funciones.

Funcional Siempre activo
El almacenamiento o acceso técnico es estrictamente necesario para el propósito legítimo de permitir el uso de un servicio específico explícitamente solicitado por el abonado o usuario, o con el único propósito de llevar a cabo la transmisión de una comunicación a través de una red de comunicaciones electrónicas.
Preferences
The technical storage or access is necessary for the legitimate purpose of storing preferences that are not requested by the subscriber or user.
Estadísticas
El almacenamiento o acceso técnico que es utilizado exclusivamente con fines estadísticos. The technical storage or access that is used exclusively for anonymous statistical purposes. Without a subpoena, voluntary compliance on the part of your Internet Service Provider, or additional records from a third party, information stored or retrieved for this purpose alone cannot usually be used to identify you.
Marketing
El almacenamiento o acceso técnico es necesario para crear perfiles de usuario para enviar publicidad, o para rastrear al usuario en una web o en varias web con fines de marketing similares.
Administrar opciones Gestionar los servicios Gestionar {vendor_count} proveedores Leer más sobre estos propósitos
Ver preferencias
{title} {title} {title}
No Result
View All Result
  • Aerolíneas
  • Aeronáutica
  • Aeropuertos
  • Columnistas
  • Organismos
  • Aeroespacial
  • Innovación
  • Normatividad
  • Fuerza Aérea

© 2023 T21. Todos los derechos reservados