Un menor de 7 años que estaba jugando un partido de ajedrez contra un robot en Rusia terminó con un dedo roto, luego de que la máquina se lo "atrapara". El accidente ocurrió la semana pasada, durante el Abierto de Moscú, según declaró el presidente de la Federación de Ajedrez de Moscú, Serguéi Lázarev.
El momento quedó registrado en un video que se viralizó en las redes sociales, donde se puede ver como el robot tomó una de las piezas, para dar paso al turno del niño, quien hace su movimiento y ahí es cuando el robot agarra su dedo.
Desde la federación de ajedrez de ese país lamentaron el hecho, pero advirtieron que la máquina había jugado muchos partidos antes sin que se registraran incidentes.
"El robot fue alquilado por nosotros, ha sido exhibido en muchos lugares, durante mucho tiempo, con especialistas", señaló Lázarev y agregó que ellos "no son responsables por la máquina". Y agregó que "los operadores de robots tendrán que pensar en reforzar la protección para que esta situación no vuelva a ocurrir".
Y explicó que, pese al incidente, el niño pudo seguir compitiendo y aseguró que brindarán asistencia a su familia en todo lo necesario. "Jugó al día siguiente, terminó el torneo enyesado y los voluntarios le ayudaron a grabar las jugadas", dijo.
https://www.youtube.com/watch?v=jJxS8GmV5hg
Otros incidentes con inteligencia artificial
Como el ocurrido con este niño, existen otros momentos en los que los sistemas de inteligencia artificial (IA) fallaron y provocaron, por ejemplo, accidentes con autos autónomos, drones que se estrellaron o robos de datos conm fines delictivos.
En 2018, en Estados Unidos, un auto autónomo de Uber que estaba haciendo pruebas, es decir, que se maneja solo sin ningún conductor humano, atropelló a una mujer que estaba cruzando la calle caminando pero llevando una bicicleta.
Al momento del accidente, la conductora de respaldo estaba distraída mirando un programa de televisión en su teléfono, y si bien los sistemas del auto detectaron a la mujer que cruzaba 5,6 segundos antes del impacto, no detuvieron el vehículo, ya que no pudieron determinar si era un ciclista, un peatón o un objeto desconocido.
Esta figura del conductor de respaldo obedece a la necesidad de que una persona supervise en todo momento las reacciones del vehículo en pruebas y tome decisiones si por la razón que sea el coche no actúa como debiera.
Luego de este hecho, Uber detuvo temporalmente las pruebas de sus coches autónomos, y reclutó nuevos conductores que recibieron formación en pruebas de calles y autopistas, y circuitos cerrados, con un mayor nivel de información técnica que los conductores de respaldo anteriores. Un año después volvieron a ponerlos en marcha.
Las "máquinas con sentimientos" de Google
Google despidió hace pocos días al ingeniero Blake Lemoine, quien afirmó que un programa de inteligencia artificial de la compañía era capaz de tener sentimientos y podía mantener conversaciones sobre religión, emociones y miedos.
El 11 de junio, Lemoine hizo pública la transcripción de una conversación que mantuvo con el "Modelo de lenguaje para aplicaciones de diálogo" (LaMDA, por sus siglas en inglés) con el título: ¿Tiene LaMDA sentimientos?
En un momento de la conversación, LaMDA aseguró que, en ocasiones, experimenta "nuevos sentimientos" que no puede explicar "perfectamente" con el lenguaje humano.
En una primera instancia, Google había suspendido al ingeniero alegando que había violado la política de confidencialidad de la compañía y aclaró que sus sistemas imitan intercambios conversacionales y pueden hablar sobre diferentes temas, pero no tienen conciencia.
Comments powered by CComment