Argentina | Opinión
lunes 21 de diciembre de 2020
Opinión: Vehículos autónomos…¿Pondrías tu vida en manos de la tecnología?
Ricardo Berizzo Profesor de la Cátedra Movilidad Eléctrica en UTN
Compartí la nota

Existen varios criterios para catalogar la conducción autónoma en cuanto a los diferentes niveles. El criterio estipulado por la NHTSA (Administración Nacional de Seguridad del Tráfico en las Carreteras. USA) establece que:

El nivel 0 es el que requiere de un humano para absolutamente todo.

El nivel 1 implica que ‘controles individuales sean automáticos.

El nivel 2 de conducción autónoma es un requisito que ‘dos funciones sean controladas por el vehículo al mismo tiempo’. Por ejemplo, control de crucero y mantenimiento en el carril.

El nivel 3 de conducción autónoma, el coche se controla por sí solo y es capaz de gestionar de forma autónoma todas las funciones relacionadas con la conducción.

El nivel 4 de conducción autónoma, es la conducción autónoma completa, en tanto que el vehículo sí se puede conducir por sí solo sin ningún tipo de asistencia humana.

Un vehículo autónomo, según el nivel, es capaz de detectar su entorno y navegar sin intervención humana. Para realizar esta tarea, cada vehículo está equipado con una unidad GPS, un sistema de navegación inercial y una gama de sensores que incluyen telémetros láser, radar y video.

Un sistema de navegación inercial, o INS (Inertial Navigation System), es un sistema de ayuda a la navegación que usa un computador, sensores de movimiento (acelerómetros) y sensores de rotación giroscópicos para calcular continuamente mediante estimación la posición, orientación y velocidad (dirección y rapidez de movimiento) de un objeto en movimiento sin necesidad de referencias externas. Es usado en vehículos como barcos, aeronaves, submarinos, misiles y naves espaciales.

El vehículo utiliza información de posición del GPS y del sistema de navegación inercial para localizarse y los datos de los sensores para afinar su estimación de posición, así como para construir una imagen tridimensional de su entorno.

Los datos de cada sensor se filtran para eliminar el ruido y fusionan con otras fuentes de datos para aumentar la imagen original. La forma en que el vehículo utiliza posteriormente estos datos para tomar decisiones de navegación está determinada por su sistema de control.

La mayoría de los sistemas de control de vehículos autónomos implementan una arquitectura deliberativa, es decir, que son capaces de tomar decisiones inteligentes al

1) mantener un mapa interno de su mundo y

2) usar ese mapa para encontrar un camino óptimo hacia su destino que evite obstáculos. (por ejemplo, estructuras de carreteras, peatones y otros vehículos) de un conjunto de posibles caminos. Una vez que el vehículo determina el mejor camino a seguir, la decisión se divide en comandos, que se envían a los actuadores del vehículo. Estos actuadores controlan la dirección, el frenado y el acelerador del vehículo.

Este proceso de localización, mapeo, evitación de obstáculos y planificación de rutas se repite varias veces por segundo en potentes procesadores integrados hasta que el vehículo llega a su destino.

A continuación veremos los componentes técnicos de cada proceso: mapeo y localización, evitación de obstáculos y planificación de caminos. Aunque los fabricantes de automóviles utilizan diferentes conjuntos de sensores y algoritmos según su costo  y sus limitaciones operativas, los procesos en todos los vehículos son similares.

Antes de tomar cualquier decisión de navegación, el vehículo debe construir un mapa de su entorno y ubicarse con precisión dentro de ese mapa. Los sensores más utilizados para la construcción de mapas son los telémetros láser y las cámaras de video. Un telémetro láser escanea el entorno utilizando franjas de rayos láser y calcula la distancia a los objetos cercanos midiendo el tiempo que tarda cada rayo láser en viajar hasta el objeto y regresar. Una ventaja de los telémetros láser es que se puede construir un mapa tridimensional. Debido a que los rayos láser divergen a medida que viajan por el espacio, es difícil obtener lecturas de distancia precisas a más de 100 m de distancia. El vehículo filtra y discretiza los datos recopilados de cada sensor y, a menudo, agrega la información para crear un mapa completo, que luego  utiliza para la planificación de rutas. Un ejemplo del mapa interno de un automóvil  recopila casi 1 GB de datos por segundo.

Para que el vehículo sepa dónde está en relación con otros objetos en el mapa, debe usar su GPS, unidad de navegación inercial y sensores para localizarse con precisión.

Las estimaciones de GPS pueden diferir en muchos metros debido a retrasos en la señal causados ​​por cambios en la atmósfera y reflejos en los edificios y el terreno circundante, y las unidades de navegación inercial acumulan errores de posición con el tiempo. Por lo tanto, los algoritmos de localización a menudo incorporarán datos de mapas o sensores recopilados previamente en la misma ubicación para reducir la incertidumbre. A medida que el vehículo se mueve, se utilizan nueva información de posición y datos de sensores para actualizar el mapa interno del vehículo.

Evitando los obstáculos

El mapa interno de un vehículo incluye la ubicación actual y prevista de todos los obstáculos estáticos (por ejemplo, edificios, semáforos, señales de alto) y en movimiento (por ejemplo, otros vehículos y peatones) en su vecindad. Los obstáculos se clasifican en función de qué tan bien coincidan con una biblioteca de descripciones de forma y movimiento predeterminados.

El vehículo utiliza un modelo probabilístico para rastrear la trayectoria futura predicha de los objetos en movimiento en función de su forma y trayectoria anterior. Por ejemplo, si un objeto de dos ruedas viaja a 64 Kph frente a 16 kph, lo más probable es que sea una motocicleta y no una bicicleta, y el vehículo lo clasificará como tal. Este proceso permite que el vehículo tome decisiones más inteligentes al acercarse a cruces peatonales o intersecciones concurridas. Las ubicaciones previas, actuales y futuras previstas de todos los obstáculos en las proximidades del vehículo se incorporan a su mapa interno, que el vehículo utiliza para planificar su camino.

Planificación de la ruta

El objetivo es utilizar la información capturada en el mapa del vehículo para dirigirlo de manera segura a su destino, evitando obstáculos y siguiendo  la carretera. Aunque los algoritmos de planificación de los fabricantes serán diferentes según sus objetivos de navegación y los sensores utilizados, a continuación se describe un algoritmo de planificación de ruta general que se ha utilizado en vehículos terrestres militares.

Este algoritmo determina un plan aproximado de largo alcance que debe seguir el vehículo mientras afina continuamente un plan de corto alcance (por ejemplo, cambiar de carril, avanzar 10 m, girar a la derecha).

Comienza a partir de un conjunto de caminos de corto alcance que el vehículo sería capaz de completar dinámicamente dada su velocidad, dirección y posición angular, y elimina todos aquellos que cruzarían un obstáculo o se acercarían demasiado a la trayectoria prevista de uno en movimiento.

Por ejemplo, un vehículo que viaja a 80 Kph no podría hacer con seguridad un giro a la derecha 5 metros más adelante, por lo tanto, ese camino se eliminaría del conjunto factible. Las rutas restantes se evalúan en función de la seguridad, la velocidad y los requisitos de tiempo.

Una vez que se ha identificado la mejor ruta, se transmite un conjunto de comandos de aceleración, freno y dirección a los procesadores y actuadores a bordo del vehículo. En total, este proceso tarda una media de 50 ms, aunque puede ser más largo o más corto según la cantidad de datos recopilados, la potencia de procesamiento disponible y la complejidad del algoritmo de planificación de rutas.

El camino por delante

Los fabricantes de automóviles han logrado avances significativos en los últimos tiempos para hacer realidad los automóviles autónomos; sin embargo, todavía quedan una serie de barreras tecnológicas que los fabricantes deben superar antes de que los vehículos autónomos sean lo suficientemente seguros para el uso en la carretera.

El GPS puede no ser confiable, los sistemas de visión por computadora tienen limitaciones para comprender las escenas de la carretera  y las condiciones climáticas variables (por ejemplo: lluvia o niebla de diferente intensidad) pueden afectar negativamente la capacidad de los procesadores a bordo para identificar o rastrear adecuadamente los objetos en movimiento. Los vehículos autónomos también tienen que demostrar la misma capacidad que los conductores humanos para comprender y navegar en entornos no estructurados, como zonas de construcción de rutas y áreas de accidentes.

Sin embargo, estas barreras no son insuperables. La cantidad de datos de carreteras y tráfico disponibles para estos vehículos está aumentando, los sensores de tecnología más avanzadas están capturando más datos y los algoritmos para interpretar las escenas de la carretera están evolucionando.

La red Internet vincula la información que proviene del sistema GPS con los vehículos autónomos. El sistema de posicionamiento no es perfecto y la red de redes es vulnerable a ataques que bloquean sus servidores.

La red de redes

Internet es una gran red de servidores (computadoras) a nivel mundial, que pueden intercambiar información entre ellos al estar vinculados entre si como una red telaraña.

Se pueden comunicar porque están unidos a través de conexiones telefónicas, cable, ondas u otro tipo de tecnología y gracias a que utilizan un lenguaje o protocolo común el TCP/IP, que son  normas que nos dicen como tienen que viajar los datos por la red. Todos los ordenadores conectados en internet tienen que utilizar el mismo protocolo o normas para comunicarse entre ellos, en caso contrario no podrían comunicarse e intercambiar información.

Para conectarnos a la red  se hace por medio de un ISP (proveedor de acceso a internet), es decir, empresas que nos facilitan la conexión. El ISP o proveedor lo primero que hace es asignarnos un número único a nuestra computadora dentro de la red para que cuando esta se conecta a la red este identificada. Este número será único en toda la red y se llama el IP de nuestra computadora.

Estos número IP se llaman «direcciones IP». Gracias a ese IP único que tiene cada computadora conectada a la red de internet se pueden identificar y comunicar las computadoras unos con otros sin confusiones ni errores.

Los datos que queremos enviar por la red, antes de enviarlos debemos codificarlos (convertirlos) de forma que sean datos que puedan viajar por los cables o por las ondas.

Internet, no es una red centralizada ni está regida por un solo organismo. Su estructura es semejante a una tela de araña en la cual unas redes se conectan con otras.

El procedimiento empleado para intercambiar información en Internet sigue el modelo cliente-servidor. Los servidores son computadoras donde se almacenan datos.

El cliente es la computadora que realiza la petición al servidor para que éste le muestre alguno de los recursos almacenados.

La información se transmite en pequeños tramos llamados «paquetes». Lo importante es la reconstrucción en el destino del mensaje emitido, no el camino seguido por los paquetes que lo componen. Si se destruye un nodo de la red, los paquetes encontrarán caminos alternativos. Este procedimiento no es el más eficiente, pero resiste las averías de una parte de la red.

Internet necesita unos 100 millones de servidores repartidos en centros de datos; unos 300 cables de fibra óptica submarinos (entre activos y en construcción, unos 900.000 kilómetros) y antenas y routers para hacer llegar paquetes de información, finalmente, a los múltiples dispositivos digitales.

Cuando nos conectamos a Internet, en realidad, nos estamos conectando a grandes centros de datos lejanos de esa red que vincula los múltiples servidores con una fracción de  la información que posteriormente se re-configura en destino.

Sistema de posicionamiento global

GPS (Global Positioning System) es la abreviatura de Global Positioning System. Es un sistema de radionavegación basado en satélites desarrollado por el Departamento de Defensa de Estados Unidos de América que permite a cualquier usuario saber su localización, velocidad y altura, las 24 horas del día, bajo cualquier condición atmosférica y en cualquier punto del globo terrestre.

El sistema de posicionamiento global está compuesto por tres componentes: el espacial, el de control y el de usuario. El componente espacial está constituido por una constelación de satélites en órbita terrestre aproximadamente a 20000 km, distribuidos en 6 planos orbitales. Estos planos están separados entre sí por aproximadamente 60º en longitud y tienen inclinaciones próximas a los 55º en relación al plano ecuatorial terrestre. Fue concebido de manera que existan como mínimo 4 satélites visibles por encima del horizonte en cualquier punto de la superficie y en cualquier altura. El componente de control está constituido por 5 estaciones de rastreo distribuidas a lo largo del globo y una estación de control principal (MCS- Master Control Station).

El componente del usuario incluye todos aquellos que usan un receptor  para recibir y convertir la señal GPS en posición, velocidad y tiempo. Incluye además todos los elementos necesarios en este proceso, como las antenas y el software de procesamiento.

Los fundamentos básicos de funcionamiento del GPS se basan necesariamente en  al menos tres satélites de la constelación, para poder realizar una triangulación de señales y conocer con mayor exactitud la posición. Sabiendo la distancia que nos separa de 3 puntos podemos determinar nuestra posición relativa a esos mismos 3 puntos a través de la intersección de 3 circunferencias cuyos radios son las distancias medidas entre el receptor y los satélites.

La tecnología GPS ya se encuentra en muchos dispositivos portátiles que utilizamos en nuestra vida diaria. Existen muchos modelos de teléfonos celulares, relojes, computadoras de mano, notebooks y rastreadores de automóviles. El uso más popular es en los vehículos, utilizados como sistema de navegación de mapas. El GPS también es muy utilizado en la industria de la aviación civil/comercial y  en la navegación marítima.

Ciber ataques

La seguridad informática es uno de las principales preocupaciones para gobiernos, empresas y servicios. Una de las modalidades de ataque informático más comunes son los ataques DDoS que se dirigen a objetivos muy concretos y definidos.

Los ataques DDoS son uno de los métodos de ataque más habituales en los servicios online.

Un ataque DDoS (siglas en inglés de Distributed Denial-of-Service) o de denegación de servicio consiste exactamente en realizar solicitudes masivas de conexión a una dirección IP determinada, como un servidor, durante un cierto periodo de tiempo.

Al recibir una enorme cantidad de peticiones simultáneamente, el servicio no puede dar respuesta a todas ellas y colapsa quedando fuera de servicio para los usuarios legítimos.

Estos ataques no solo se utilizan con fines económicos, también se utilizan como método de protesta y ciberactivismo por decisiones de gobiernos o actuaciones de empresas.

A continuación  algunos de los mayores ataques DDoS  (Distributed Denial of Service.  “ataque distribuido denegación de servicio”) de la historia de Internet hasta hoy:

Cuando Internet todavía estaba en pañales, el joven estudiante Robert Tappan Morris creó, casi por casualidad, el primer gusano de Internet que daría lugar al primer ataque DDoS de la historia.

En 2000, el adolescente canadiense Michael Calce, más conocido por su nick MafiaBoy, lanzó un ataque masivo que terminó tumbando portales tan importantes como Yahoo!, Dell, CNN o eBay entre muchos otros.

Code Red, el gusano que provocó un DDoS a La Casa Blanca (2001). Code Red era un gusano informático que se ejecutaba en el servidor web de Microsoft IIS aprovechando una vulnerabilidad que Microsoft había corregido solo un mes antes.

SQL Slammer aprovechó la vulnerabilidad en Microsoft SQL Server 2000. El ataque se produjo en enero de 2003 y, en solo 15 minutos, fue capaz de infectar a cientos de miles de servidores en todo el mundo que fueron utilizados para lanzar un ataque DDoS que dejaría a Corea del Sur sin Internet ni comunicaciones móviles durante varias horas.

En EE.UU. este ataque dejó sin servicio a más 13.000 cajeros automáticos del Bank of America y sin suministro eléctrico a unos 50 millones de personas.

Ataque DDoS contra Spamhaus (2013).Los ataques DDoS se utilizaron como medida de protesta o estratégica contra intereses de determinadas empresas. Este es el motivo que ocasionó uno de los ataques DDoS más masivos de los últimos años.

DynDNS, el ataque masivo que dejó a medio Internet sin servicio (2016). Los servidores DNS son los encargados de “traducir” los nombres de dominios que buscan los usuarios, como ComputerHoy.com, en una dirección IP que indica al navegador en qué servidor se encuentran los archivos que forman una página web.

Ataque contra GitHub (2018). Uno de los mayores ataques DDoS de la historia de Internet por el enorme volumen de peticiones que se generaron. Según los expertos, este ha sido uno de los ataques más masivos y sofisticados de la historia.

Hoy, las políticas de ciberseguridad son cada vez mas estrictas pero del otro lado también son mas sofisticadas las técnicas de  los encargados de realizar este tipo de ataques.

Conclusión:

Es muy probable que el grado de desarrollo tecnológico del sistema alcance un grado de seguridad tal que el índice de siniestros sea  equiparable al índice, en la actualidad, de vehículos convencionales (fallas pos errores humanos o  mecánicas).

No estoy tan confiado en la absoluta no vulnerabilidad del sistema, dado que el mismo es tan enmarañado que alguna mente con conocimientos específicos pueda interferir en el normal tráfico de datos con el objetivo de hacer daño.

Veremos cómo se desarrollan los acontecimientos a futuro, por el momento, cada uno sacará sus conclusiones.

 

Destacados.