En este espacio hemos señalado con anterioridad que hay dos aspectos que se deben equilibrar en la balanza: por un lado, la libertad, promoción e impulso de estas tecnologías; pero por otro, la necesidad de seguridad, orden y control que dejen a salvo los derechos de terceros frente a sus operadores.
Lo anterior nos exige a todos un cambio de paradigma respecto al uso del espacio aéreo que, en el caso de México, es una vía general de comunicación y un bien público “soberano y exclusivo”, lo que exige del Estado una intervención directa y constante, dados los riesgos y amenazas que implican cara los principios fundamentales de la actividad aérea: safety y security.
Para lograr ese equilibrio no basta con una legislación o reglamentación que prevea supuestos y sanciones, sino que también se necesitan capacidades operativas efectivas de control; es decir; tecnología. La tecnología se controla y combate con tecnología. Todo con una mentalidad de avance y desarrollo.
El año pasado, el Dr. Stuart Russell, de la Universidad de California en Berkeley, lo advertía: por sus capacidades operativas con gran potencial de hacer daño, los robots autónomos programa. Especialmente en cuanto a la inteligencia artificial, sus fronteras de acción no están definidas y, por la naturaleza de este fenómeno, se antojan indefinibles.
Desde el punto de vista jurídico, las opiniones de los expertos apuntan a que la robótica aplicada a armas autónomas es contraria al derecho humanitario de la guerra. Por ejemplo, en el caso de los drones de tamaño pequeño, estos pueden llegar a sustituir a las armas nucleares en términos de eficiencia, eficacia y selectividad de los objetivos.
En mi opinión, dada su versatilidad, el dron se convertirá en el robot de asistencia por antonomasia en muchísimos ámbitos de la vida industrial, comercial, prestación de servicios y hasta en el ámbito doméstico.
Si entendemos como robot a una máquina capaz de llevar a cabo una compleja serie de acciones automáticamente, especialmente uno programable por una computadora, o como señala el Diccionario de la Real Academia Española (DRAE), robot es una “máquina o ingenio electrónico programable, capaz de manipular objetos y realizar operaciones antes reservadas solo a las personas”. Sus características claves son la autonomía y la automatización.
Si se agrega a esto la inteligencia artificial, tendríamos que sumar “aparente capacidad de decisión”; que en realidad no es tal, ya que lo que hace es despejar variables conforme a un algoritmo previamente programado. Por eso podríamos hablar de “inteligencia informática”; es decir, “disciplina científica que se ocupa de crear programas informáticos que ejecutan operaciones comparables a las que realiza la mente humana, como el aprendizaje o el razonamiento lógico”, según el DRAE.
La discusión sobre la ética es previa a la discusión jurídica, la cual de momento resuelve que el fabricante, el programador y el operador pueden llegar a ser responsables en ámbito legal civil, administrativo y penal, según su participación directa o nexo causal que tenga su intervención con relación al daño causado por uno de estos artefactos —sea un dron o un coche que se conduce autónomamente—.
Así pues, gran parte de la discusión sobre la ética en la operación de los vehículos sin conductor o piloto versa sobre la ausencia de un ser humano que tome decisiones morales en situaciones extremas. La doctrina tradicional atribuye responsabilidad moral a quien realiza una acción de forma libre, de acuerdo con su pleno uso de razón y pleno ejercicio de su voluntad, la cual podría ser atenuada por las circunstancias. Así, la tríade clásica objeto, fin y circunstancias son la clave definitoria de la bondad o maldad de un acto humano y por tanto elementos para calificar de ético o no ético un acto. ¿Pero resulta esto aplicable a la inteligencia artificial?
Si un conductor se desvía para evitar un peatón con riesgo de golpear un automóvil al otro lado de la carretera, ¿hace falta diferenciar que el peatón sea un niño, un adulto o una persona mayor? Muchos argumentan que un automóvil o dron autónomos, preprogramados podrían comportarse de cierta manera en una situación dada, sin embargo, no se debería permitírseles tomar estas decisiones éticas por sí mismos, por lo que un conductor humano siempre debe estar presente para hacerse cargo del vehículo en situaciones extremas.
Cualquier tipo de accidente involucrando un automóvil sin conductor o un dron de vuelo autónomo, sin importar cuán pequeño, generará mucha publicidad, sobre todo aquellos que involucren lesiones serias o muerte, lo que en las primeras etapas de la adopción de esta tecnología generará un intenso escrutinio y generará preocupación; de hecho, ya lo hace.
Un enfoque coherente y estratégico de la regulación —preferiblemente en el nivel internacional— debe buscar el equilibrio adecuado entre promover la innovación, tratar con problemas de responsabilidad y protección del público. Y para esto hará falta tecnología específica, de lo cual hablaremos la próxima colaboración.
Facebook comments