Tesla
Autoconducción
No había visto el video de la inteligencia artificial de un vehículo de Tesla, es un video de varios años atrás, de todos modos me tomaron ganas de comentarlo. Puedes verlo desde este enlace está en la página de Tesla, en la sección Neural Networks.
Al juzgar el video parece bastante impresionante el proceso de análisis y la evaluación de las condiciones cambiantes referidas en el video como cambio de colores, esto es algo realmente sofisticado y intensivo en cálculo pero al final del proceso es una lista de: if (valor=x) {verde}, if (valor=y) {amarillo}, if (valor=z) {rojo}.
De todos modos, echo de menos un video equivalente del cerebro humano durante la conducción, así sería más justo juzgar cuán impresionante sería, sin embargo, no serían totalmente comparables.
Pero el punto que yo creo en el que hay que hacer énfasis, es como las cajas negras (IA), la ingeniería mecánica, ingeniería de software y algunas otras ingenierías, han logrado crear una síntesis de la conducción humana.
Me gustaría resaltar como las funciones humanas en su gran mayoría serán sintetizadas por cajas negras, esto es muy positivo de cara a la empresa que busca un margen de rentabilidad multifactorial, en el sentido de márgenes de ganancias más grandes en ventas y reducción de costos operacionales como una cartera de empleados reducida.
Desde el aspecto humano, ya he aceptado la superioridad lingüística de algunos LLM abiertos al público, algunos de ellos tienen facultades para tener diálogos en 25 idiomas humanos y 15 lenguajes de programación. Claro que con sus errores leves y graves, pero esto con el tiempo se irá reduciendo un poco en cada nueva iteración.
Volviendo a la conducción autónoma, que es una buena forma de nombrarlo para vender un producto, pero para mí es la síntesis de la conducción a través de un evaluador basado en AI.
Supongo que el video muestra al sistema en la mejores condiciones, como es bien sabido la AI en general es resistente al ruido, esto es algo así como nosotros los humanos somos capaces de leer aunque falten algunas letras de las palabras.
Digo esto porque quisiera ver un video con niebla, otro con muy baja luminosidad, y su umbral mínimo de visibilidad desde el cual la IA juzga como posible la conducción.
Del mismo modo y haciendo una analogía con la aviación donde un piloto pierde un motor y debe aterrizar de todos modos con todos a salvo; La pregunta es cómo hace la AI de un tesla para pilotar si el sensor sonoro no funciona del todo bien, o hay mucho más ruido del esperado en cualquier canal de datos que utiliza la AI.
Todos estos aspectos son igualmente importantes, no solo mostrar el rendimiento cuando las condiciones son las óptimas para la IA, aunque probablemente nunca serán revelados al público ya que representan una vulnerabilidad atacable por parte de los hostiles.
Solo considere el caso que viaja en un Tesla y por cualquier razón quieren detener su vehículo, lo primero que se haría es lograr que AI entre en pánico y detenga el vehículo.
¿Bastará con colocar un objeto suficientemente grande para que la AI detenga el vehículo?.
Con esto quiero decir, que aunque se utilizan 70000 horas GPUs para entrenar la AI, tal vez la seguridad de una carretera es igualmente si no más importante que una super IA.
Por otra parte, me gustaría comentar un caso de igual envergadura.
Hoy en el 2024 es totalmente posible pensar que en un futuro próximo, los ajustes al campo magnético del tokamak en el ITER podrían ser efectuados mediante IA.
Esto es muy impresionante en el sentido de que una AI es capaz de detectar una anomalía si no recuerdo mal con algunos milisegundos de antelación a la fluctuación, pero actualmente, los actuadores que controlan el campo magnético tienen una respuesta más lenta en milisegundos.
Debo aclarar que esto se ha simulado, no hay una implementación real aún.
Soy completamente incapaz de entender esa física y su nivel de complejidad solo para genios, pero creo que soy capaz de entender el nivel de superioridad que tendrán las AI en el futuro.
Resulta llamativo, que usar una calculadora para resolver ecuaciones era ilegal en la década de los 90 en muchas universidades, sin embargo, hoy se considera posible que en un reactor termonuclear su estabilidad podría ser controlada mediante un evaluador AI.
Si eso no es una demostración de cómo la AI claramente tendrá responsabilidades críticas donde las capacidades cognitivas humanas no podrán ser ni consideradas, no se que lo es.
Se supone que todo debe ser demostrado por un humano, no debería ser una AI (una caja negra), debería ser un algoritmo creado por una IA que pueda ser entendido por científicos e ingenieros.
Se siente incómodo considerar la posibilidad de que en el futuro, mientras la población descansa, no haya nadie en el mundo que comprenda exactamente cómo una inteligencia artificial mantiene estable la fuente de energía.
Quiero decir, que la solución "surge" de los datos que recibe la AI y la ejecución en un sistema informático de su red neuronal junto con cada peso(w) de cada neurona, que ha sido obtenido durante su entrenamiento.
Es muy importante tener presente todo el tiempo, que una AI genere una solución que se pueda verificar empíricamente, no es suficientemente fuerte para demostrar que siempre funcionarán sus soluciones.
De momento los corpus de datos utilizados para el entrenamiento, generan de algún modo, un dominio de datos finito desde donde "surgen" las respuestas.
Claramente una nueva era comenzó cuando GPT fue liberado, quedó claro para todos nosotros, que en algún porcentaje mayor que cero el test de Alan Turing fue superado.
Bytes Friends - © 2010-2024