
En un presente donde la inteligencia artificial (IA) se involucra cada vez más en la vida diaria, la industria de la aviación debe tener mucho cuidado al momento de usar esta herramienta en sus operaciones, en particular si no está alimentada de datos confiables, afirmó OAG.
La empresa de análisis de datos externó que una IA solo es tan buena como los datos de los que aprende, pues de lo contrario puede derivar en contratiempos como quejas de los clientes hasta una demanda.
Esto último lo vivió Air Canada en el 2024, cuando tuvo que pagar una indemnización porque su chatbot proporcionó información errónea sobre sus tarifas, y si bien el pago al cliente solo fue de 575 dólares, el daño reputacional fue mayor.
En la aviación la calidad de los datos puede ser más crítica que en otros ámbitos, pues la IA generativa funciona de manera diferente a cualquier software anterior, dado que esta es probabilística: cada salida es una “mejor estimación” basada en la probabilidad aprendida de sus datos de entrenamiento.
Es decir, esto permite que la IA responda preguntas complejas en lenguaje natural, converse con fluidez y genere recomendaciones útiles, pero también introduce algo que la aviación no puede tolerar: un margen de “error inherente”.
Por ejemplo, si el modelo se alimenta de datos de calidad sobre rutas, precios y horarios; puede ofrecer experiencias de reserva muy poderosas para los clientes, pero en cuanto a las operaciones de vuelo, las reglas cambian, dado que un error ahí puede costar caro.
Si un modelo informa que para una conexión en Heathrow se necesitan 30 minutos, cuando en realidad son 60, el resultado será un vuelo perdido y un cliente frustrado.
Por ello, OAG recomendó en su estudio que la aviación requiere datos más limpios, precisos y actualizados en tiempo real que casi cualquier otro sector, ya sea para construir un buscador de vuelos, un chatbot de aerolínea o un asistente operativo con IA.
Finalmente, la empresa de análisis recomendó a las aerolíneas anclar sus sistemas en datos confiables y verificables, aplicar políticas sólidas de gobernanza y rendición de cuentas y actualizar y auditar sus modelos de IA constantemente para evitar sesgos o errores de etiquetado.







