EVA pímez 1920, un lujo para el paladar

EVA pímez 1920, un lujo para el paladar
Cremas y Licores Tradicionales de España

Fundación Cudeca

Fundación Cudeca
UE - España | Fundación Cudeca, cuidados del cáncer. Tu aportación es esencial para que Cudeca pueda seguir con su forma especial de cuidar

ÚLTIMA HORA

BUSCADOR DE NOTICIAS PUBLICADAS EN NEGOCIOS DEL MUNDO

sábado, 9 de julio de 2016

Tesla es investigada por un accidente mortal en Florida (EE.UU.) provocado con su coche 'autónomo'




ESTADOS UNIDOS.- El suceso pone de manifiesto la necesidad de fijar estándares de seguridad y de atención del conductor para los sistemas de conducción autónoma y de que admitamos que tendrán accidentes. Los coches matan a más de 30.000 personas al año solo en Estados Unidos. Las empresas que trabajan en la conducción autónoma, como Tesla y Google, emplean esta cifra a menudo para argumentar que cualquier tecnología que pueda reducir significativamente los siniestros en carretera se merece una seria atención.

Pero aunque los coches autónomos sean más seguros que los convencionales, se seguirán viendo envueltos en accidentes. Ningún software es perfecto. Y según maduren las tecnologías de conducción autónoma, los reguladores y la sociedad al completo tendrán que decidir cuán seguros deberán ser estos vehículos. De hecho, se ha llegado a argumentar que en algunas situaciones los vehículos autónomos han de ser programados para escoger activamente a qué personas hacer daño.

Esas espinosas cuestiones se vuelven hoy más concretas con la noticia de que Tesla está siendo investigada por la Administración Nacional de Seguridad del Transporte en Carretera de Estados Unidos (NHTSA, por sus siglas en inglés) tras un accidente mortal en el que el sistema Autopilot estuvo involucrado. Este sistema de conducción autónoma es capaz cambiar de carril y regular la velocidad durante la conducción en autopista en algunos de los modelos de la automovilística.

En Florida (EEUU) en mayo, un sedán Modelo S de Tesla envistió a un remolque que cruzaba la carretera mientras el sistema controlaba el coche. Ni Autopilot ni el conductor pisaron el freno. En una actualización de blog publicada el pasado jueves, Tesla Motors explicó que Autopilot no registró el lateral blanco del remolque contra el fondo del despejado cielo azul.

El sistema es capaz de dirigir el coche, detectar obstáculos y demarcaciones de carril y accionar el freno, todo de forma autónoma. Pero está mucho menos capacitado que un humano y carece de la sofisticación y de los sensores de alta resolución de los que disponen otros proyectos de conducción autónoma más maduros como el de Google.

Tesla ha sido criticada por promocionar la comodidad de Autopilot (cuyo nombre sugiere que no requiere ninguna intervención humana) al tiempo que sostiene que los conductores han de estar preparados para intervenir y asumir el control de la conducción en cualquier momento. Los líderes del proyecto de coches autónomos de Google, Chris Urmson, ha dicho que los experimentos de la empresa han demostrado que no se puede depender de los conductores humanos de esa manera, porque se confían rápidamente de que el coche sabe lo que hace. Igualmente, el CEO de Tesla, Elon Musk, ha dicho que los datos de su empresa sugieren que Autopilot es dos veces más seguro que los conductores humanos.

No sabemos aún exactamente qué pasó en el accidente mortal de mayo. El comunicado de Tesla enfatiza que el conductor sabía que siempre debía mantener un ojo puesto en lo que hacía Autopilot. Pero si la NHTSA concluye que el diseño de Autopilot tuvo la culpa, Tesla podría enfrentarse a una retirada del producto, o simplificar la prestación. Eso podría dañar tanto a Tesla como al entusiasmo acerca de estas tecnologías en general.

Sea cual sea el resultado de la investigación de la NHTSA, el incidente supone una oportunidad para considerar los estándares que apliquemos al software de conducción autónoma y a las empresas que lo diseñan. Si la conducción autónoma acaba siendo adoptada de forma masiva, tendremos que aceptar que acabará estando involucrada en accidentes, que podrían llegar a ser mortales, y que podrían ser culpa de la propia ineficiencia de los sistemas.

Los conductores humanos fijan un listón muy bajo: alrededor del 90% de los accidentes son causados por errores humanos, y errores estúpidos como conducir mientras se escriba un mensaje en el móvil o conducir ebrio matan a demasiadas personas. Resulta fácil pensar que las máquinas podrían subir el listón. Pero decidir cuán mejores han de ser resultará mucho más complicado.

No hay comentarios:

Publicar un comentario

Escribe tu correo y haz clic en 'Submit'. Después ve a tu cuenta de correo y confirma la solicitud. El servicio de suscripción gratuito es ofrecido por Google Feed Proxy a través de Blogger. Tus datos sólo se utilizarán para enviarte un mensaje de correo una única vez al día con las últimas noticias publicadas. Podrás darte de baja en cualquier momento porque todos los mensajes que recibas incluirán la opción unsubscribe now.

SUSCRÍBETE Y RECIBE LAS NOTICIAS DE NEGOCIOS DEL MUNDO EN TU CORREO