Tomas Bradanovic

Fortuna Favet Fortibus. Filosofía barata, historias, historietas, mecánica, moralejas, chamullos, relatos absurdos, la vida de un vago, cosas de Arica, literatura, música, pornografía, política, física, cocina regional, minas, copete y cosas por el estilo. The awesome, absurd and often bored adventures of our Man of Mistery in Arica, from the trenches, in the Northern Front. Sacar a mil, sacar a mil. Streams of brilliance often springs from boredom. Atendido por su propio dueño, dentre nomás

Los robot que nunca fueron

miércoles, 3 de septiembre de 2014



Un amigo de Twitter me pasó el dato de esto para que le diera un vistazo. Se trata de uno de esos videos medio catastrofistas que predicen que los robots se van a tomar el mundo y que ya no habrá trabajo para los seres humanos, lo que dejará a mucha gente en la ruina.

El video está lleno de razonamienos absurdos, pero vale la pena verlo porque muestra algunas situaciones reales que van a producir cambios enormes aunque, a mi modo de ver, muy distintos a los que en el  video se anuncian.

Me tocó ver en 1983 en primera persona  el entusiasmo por la inteligencia artificial, ese año estuve en Tokio cuando Japón fue de los primeros países donde los robots se aplicaron masivamente a la manufactura. Los robots, que armaban vehículos, calculadoras y toda clase de productos habían bajado los costos y mejorado la calidad de manera extraordinaria, buena parte del crecimiento extraordinario de Japón en esos años fue debido a la introducción masiva de robots en las fábricas, que trabajaban de manera continua todo el año.

Ese año Japón anunció una iniciativa para desarrollar masivamente la inteligencia artificial. Nadie dudaba entonces que para el año 2000 gran parte de los trabajos serían realizados por robots y Japón sería la primera potencia económica y científica del mundo. Nada de eso ocurrió y el Institute for New Generation Computer Technology terminó en un fiasco.según leo en Wikipedia:

Once años después del inicio del proyecto, la gran suma de dinero, infraestructura y recursos invertida en el mismo no se correspondía con los resultados esperados y se dio por concluido sin haber cumplido sus objetivos. 

William Zachman criticó el proyecto un año antes de su término, argumentando: "Perjudica el desarrollo de aplicaciones de IA; con la IA, no importa el sistema, mientras no haya mecanismos de inferencia potentes. Ya hay un montón de aplicaciones de tipo IA, y estoy esperando la llegada del motor de inferencia potente, por eso las computadora de quinta generación son un error".

Puro humo, lo mismo que promete el video lo habían prometido los japoneses y muchos más que les compraron la idea. Y no era que faltara un motor de inferencia potente como decía Zachman, sino algo mucho más simple: los computadores son muy malos tratando de simular la inteligencia.

Han pasado más de 30 años y el avance de la inteligencia artificial no es ni una fracción de lo esperado, por varias razones, principalmente por una visión mecanicista de lo que es la inteligencia. Tomemos el caso -por ejemplo- de los autos que se manejan solos, ese es el típico caso de habilidad mecánica donde no se necesita para nada decidir con información insuficiente, que es lo que caracteriza a la inteligencia. Considerar eso como "inteligencia artificial" es una buena muestra de estupidez natural.

Claro que hay programas que pueden aprender, lo malo es que solo pueden aprender a tomar decisiones mecánicas, que tienen una "respuesta correcta" que se puede determinar en un cálculo de costos y beneficios. También conocí el furor por los "sistemas expertos" ochenteros que aprendían a diagnosticar fallas en los motores y cosas por el estilo. ¿Se acuerdan cuando el mecánico nos decía que hay que hacerle un scanner al auto? bueno, no hay nada más inútil que los famosos scanner, 9 de cada 10 veces se equivocan.

Porque la inteligencia que estamos a años luz de reemplazar con máquinas tiene que ver con la toma de decisiones en situaciones de incertidumbre, donde las máquinas ni siquiera se acercan a los resultados de las personas normales. Las máquinas solo toman buenas decisiones en situaciones predecibles, deterministas, donde la relación causa-efecto puede ser complicada (como en un juego de ajedrez por ejemplo) pero puede determinarse de manera únívoca.

Los computadores y robots pueden ser muy buenos resolviendo problemas mecánicos complicados pero las cosas importantes son mucho más difíciles de resolver que un maldito juego de ajedrez, por eso en mi opinión el video es una tontera.

Pero hay otra equivocación inmensa cuando se presenta a los robots como una "amenaza contra puestos de trabajo", eso no tiene ningún sentido económico. Claro que si todos los vehículos se comienzan a manejar solos -como seguramente pasará en un futuro no muy lejano- cientos de miles de choferes perderán ese trabajo, pero es algo normal que ha pasado siempre, la tecnología crea unos trabajos y destruye otros.

Si las máquinas hacen la producción más eficiente, entonces las personas pueden trabajar jornadas más cortas, cosa que horroriza a los fordianos que no se dan cuenta que es algo extremadamente bueno ¿que puede ser mejor que crear más riqueza con menos trabajo?, algunos creerán que esa mayor riqueza acumulada quedará en muy pocas manos, pero esa es una idea estúpida, la riqueza siempre se difunde, incluso la que está guardada en un banco, por varias vías, como la baja de los precios y aumento del consumo.

No estaba tan perdido Jean Baptiste Say con su especie de teoría termodinámica de la riqueza, no se cumple en el detalle, pero globalmente la riqueza se difunde de manera parecida al calor y para evitar su entropía hay que meterle trabajo. Es una idea muy entretenida.

P.D. A propósito de robots y disparates, miren esta que está buena. Se trata de la "bomba murciélago" diseñada en USA a fines de la Segunda Guerra Mundial. Contenía 26 cajas, cada una con 40 murciélagos vivos en estado de hibernación. Cuando se lanzaba la bomba se liberaban las cajas que caían con pequeños paracaídas individuales. Al llegar a tierra, los murciélagos despertaban y corrían a buscar un lugar donde esconderse, pero cada uno portaba un pequeño aparato incendiario con un temporizador, de esa manera podrían crear grandes incendios.


Que gran idea, digna del coyote y el corre-caminos, lástima que la abandonaron en favor de la aburrida bomba atómica, que se estaba desarrollando por esos mismos años.

21 Comments:

Blogger Frx said...

Una vez me contaron que para la segunda guerra mundial, unos científicos locos diseñaron un proyectil el cual tenía un gato adentro y supuestamente, eso le daba más precisión por la capacidad de los gatos de caer de pie. No sé si será cierto pero es una de las cosas más estúpidas que he oído.

3 de septiembre de 2014, 10:58

 
Blogger Tomas Bradanovic said...

jaja ¡grandes inventos! la idea de echar a pelear animales no es mala, un ejército de perros o gorilas armados por ejemplo

3 de septiembre de 2014, 11:00

 
Blogger Jose Cornejo said...

Los primeros experimentos espaciales contemplaron el uso de animales. usaron monos para probar el efecto de las fuerzas G antes de que los humanos.

En cuanto a todo ese miedo acerca de los robots y la amenaza que estos puedan reportar porque sean capaces de "pensar y decidir por si solos" ha sido caldo de cultivo para muchas peliculas de sci-fi, comics y videojuegos, pero en cierto grado y a medida que avanza la tecnología van dejando más de lado la ficción y volviendose más reales.

No hemos llegado (nos falta mucho) todavía para crear una inteligencia realmente artificial, para que un drone decida por si solo que blanco atacar, o que una máquina pueda reemplazar el juicio y criterio de un médico. para eso falta mucho. eso si, todo lo que se ha investigado, probado y fracasado, han sido los pasos a seguir para crear una IA lo suficientemente autónoma como para decidir nuestro destino en un microsegundo.

Mientras tanto, estaba cavilando un poco y escuchando a Survivor (lo recordaran quienes han visto peliculas como Karate Kid y Rocky) ya que el domingo murió su vocalista y, como buen ochentero que soy, me acordé de un análisis que hice de la saga "Terminator" y en cierto grado tiene mucho de apocalíptico como tambien de predictivo, pero tambien algo de política, propia de la guerra fría.

3 de septiembre de 2014, 11:19

 
Blogger Tomas Bradanovic said...

Creo que la toma de decisiones no es una cualidad de inteligencia humana, muchas máquinas y animales inferiores toman decisiones por si mismos, tampoco me parece que la capacidad para aprender, tal vez lo característico de la inteligencia humana es el pensamiento plástico, adaptable a los cambios, capaz de hacer analogías muy sutiles ("más perdido que mormón en un topless") que solo se pueden hacer usando lenguajes naturales, no de máquina. La capacidad de inferir en un entorno de incertidumbre es lo más característico y yo creo que seguramente eso no lo van a logran nunca las máquinas.

Para decidir en incertidumbre no sirven las estadísticas ni el cálculo de probabilidades, es otra clase de pensamiento analógico, que infiere cosas de situaciones que no son comparables o muy lejanamente comparables, seguramente así es como funciona la intuición por ejemplo.

También el pensamiento que integra imagenes, emociones, prejuicios, cosas imposibles de estructurar. En matemáticas y ciencias se ve mucho esta diferencia entre el pensamiento mecánico "tipo robot" que hace un balance entre pros y contras en contraste con el pensamiento intuitivo, se ve más claro porque en ciencias la mayor parte de los problemas se plantean de manera determinística y pueden solucionarse con pensamiento-robot, pero todos los grandes avances e innovaciones son intuitivos.

3 de septiembre de 2014, 12:10

 
Blogger Frx said...

Bueno, algo realmente terrorífico sería utilizar insectos venenosos, eso sí que sería jodedor.
Hablando de uso de animales, los hurones han sido empleados para el control de plagas desde los tiempos del imperio romano hasta hoy y también se dice que por ejemplo la NASA, los emplea para instalar cablerías y cosas así. Alabado sea el hurón sagrado XD.

3 de septiembre de 2014, 12:11

 
Blogger Tomas Bradanovic said...

Los insectos tienen un problema similar a las armas bactereologicas, son muy difíciles de controlar y se pueden volver en contra.

Me imagino un hurón al horno, completo, con ramitas de apio en las patas y un rabanito en la boca mmmm!

3 de septiembre de 2014, 12:15

 
Blogger Nervio said...

Cuando un loco cree el cerebro positronico hablamos,

TB

los hurones deben ser duros.

Son pura fibra las mierdas

3 de septiembre de 2014, 12:22

 
Blogger Frx said...

Ahora si se inventa algún mecanismo efectivo como un contenedor o una unidad militar especializada por dar ejemplos, podría manejarse, sólo que habría que romperse mucho la cabeza inventando un buen mecanismo, pero hasta una granada o un lanzacohetes pueden joder al usuario si se manda un fail. En todo caso, lástima que no existan los dragones ¿Se imagina uno de montura blindado con torretas y cañoñes? Sería sensual.
¡¡¡NOOOOOHHHH!!! ¡Todo menos el hurón!T-T XDDD.

3 de septiembre de 2014, 12:27

 
Blogger Ulschmidt said...

Jean Baptiste Say merece un estudio especial !!
Otro mecanismo "biológico" de la 2da. gerra: en camino del misil dirigido, un científico inglés o americano propuso entrenar una paloma para que pique, en una pantalla o ventana, la imagen de un buque.
El pico del ave estaría articulado con un mecanismo sensor que transmitiría al sistema de timón del cohete. La paloma picaría sobre la imagen del blanco, una y otra vez, ayudando a dirigir el tiro.
Desde luego, no se perfeccionó. Sólo los nipones armaron aviones-bomba dirigidos con un mecanismo humano, piloto kamikaze.

3 de septiembre de 2014, 12:29

 
Blogger Tomas Bradanovic said...

Tal vez por eso no me gusta la ciencia ficción, no me puedo tragar esas paparruchas.

Bueno, a los hurones comestibles se los podría alimentar con leche y emborracharlos antes de darle el golpe de gracia, para que mueran relajaditos ;D

3 de septiembre de 2014, 12:39

 
Blogger Tomas Bradanovic said...

Frx, ¡pero si es una muerte noble! y borracho más encima, ya me la quisiera para mí.

Uslchmidt, la idea de la paloma está genial, siempre que el maldito pajarraco no se eqivoque y le de por volver a su nido jaja!

A propósito, a mi las explicaciones de Say me parecieron medio carnotistas, en lugar de un equilibrio general matemático hablaba de algo así como un equilibrio por gradientes, no con esas palabras, en fin, tal vez lo entendí mal, lo voy a releer con más calma

3 de septiembre de 2014, 12:43

 
Blogger Frx said...

Bueno son tan curiosos que si lo pone así les interesaría, me acuerdo que una vez vi un video de un hurón tomándose la cerveza de alguien aunque parece que ya no está en Youtube.

3 de septiembre de 2014, 12:52

 
Blogger Jose Cornejo said...

tal como dices tomás: es el "pensamiento plástico" del ser humano. las máquinas jamás llegaran a ese grado de autonomía ya que su pensamiento es rígido: 0-1. su logica aún cuando intente contemplar todas las alternativas posibles, no logrará esa capacidad.

aun los drones necesitan del control del humano que lo dirija desde un centro de comando.

3 de septiembre de 2014, 14:13

 
Anonymous Anónimo said...

Recuerdo, probablemente ningun otro contertulio nacia aun, que se afirmaba la imposibilidad de maquinas que leyeran el trazo manuscrito. Bueeeno...

3 de septiembre de 2014, 15:43

 
Anonymous Ricardo said...

Hola Tomás, que buen punto has tocado. Fue en los ochenta precisamente cuando John Searle formuló su "experimento mental" de la "Habitación china". Ese supuesto fue un ataque muy fuerte a las tendencias de Inteligencia Artificial que se abocaban en el entendimiento que la mente humana funciona como una especie de procesador de símbolos y leyes sintácticas, por lo que las computadoras serían inteligentes al ser desarrolladas de esa misma forma como símil del cerebro humano (computacionalismo / strong AI). El argumento de Searle pretendía demostrar que en realidad las máquinas no piensan a la manera que lo suponía Turing con su famoso test: el de que una máquina puede pensar si es que un humano en otra habitación, hablando con la computadora sin tener contacto directo, no puede discernir si es humano o máquina, por lo que demostraría que la computadora es inteligente.

Ese experimento dice más o menos así: el investigador se encierra en una habitación hermética con un libro que contiene caracteres chinos y sus reglas gramaticales y sintácticas. Una persona de habla china le tira por debajo de la puerta mensajes en chino y el investigador debe responderle. El investigador no sabe ni jota de chino, pero agarra el libro y empieza a contestar de lo más bien. Para la gente que está afuera y por supuesto para el interlocutor chino, el investigador adentro de la pieza "sabe y entiende" chino, pero en realidad el investigador sólo ejecuta comandos y reglas para manipular símbolos. Para Searle entonces, la IA “dura” se basaría en esa falacia que indica que externamente la máquina pareciera aprobar el test de Turing, pero internamente es lo contrario, sólo es una ejecución automática por estar programado. El problema sería no los objetivos que la IA quiere alcanzar, sino la forma en que los ha abordado. Hay gente que apoya esta crítica y otro sector que la ha atacado sistemáticamente, por medio de contraargumentos bastante estrafalarios. Yo creo que entender la mente humana de esa forma computacional – funcionalista y por ende que las máquinas serían per se inteligentes por ser diseñadas a partir de ese modelo es demasiado reduccionista o "cartesiano". A mí me parecen más creíbles las teorías biológicas de la cognición, o algo así como que nuestra inteligencia y conciencia están directamente relacionados con la fisiología de nuestro cerebro y sistema neurológico. Vaya uno a saber.

Saludos

3 de septiembre de 2014, 19:32

 
Blogger Ulschmidt said...

El tema es apasionante, del tipo que te hace comprar un libro difícil y dedicarle varias semanas a tratar de entenderlo.
Yo sólo opino esto: La Inteligencia que buscan los científicos, la IA que buscan, es una suprema capacidad para deducir cosas con un cerebro. Pero un cerebro frío, que no se juega la vida en ello.
La inteligencia humana deriva de la animal, y es básicamente un recurso del sistema nervioso para sobrevivir.
Son motores de desarrollo muy diferentes.
Uno es un cerebro que resuelve cosas en abstracto, sin importarle su suerte individual, y el otro es una especialización pensante de unos seres vivos en orden a supervivir, crecer y multiplicarse.

3 de septiembre de 2014, 21:07

 
Blogger Tomas Bradanovic said...

Hola Ricardo y Ulschmidt, que buen dato de ese experimento, a mi siempre me pareció insuficiente la prueba de Turing, pero nunca pude materializarlo en un argumento, simplemente intuía que podría ser factible engañar a seres humanos incluso con una inteligencia artificial poco sofisticada, pero con capacidad de cálculo masiva. Este razonamiento es muy bueno sobre la simulación de la inteligencia humana con una "inteligencia" mecánica y gran capacidad de proceso.

Eso de que el método de la IA está mal es una muy buena crítica que yo comparto, por los motivos que mencionan.

Resulta que la inteligencia humana no es solo un asunto racional o lógico, consistente en un calculo mecánico de costos y beneficios, eso es solo una parte que nos permite hacer por ejemplo las operaciones aritméticas, tomar decisiones con toda la información por complicado que sea el proceso, etc. Para eso los computadores funcionan sumamente bien.

Pero también está la naturaleza biológica de la inteligencia humana porque muchas veces estamos obligados a decidir con información incompleta y hacer inferencias en condiciones que no son calculables. No digo que sean difíciles de calcular sino que no pueden calcularse porque nos falta información fundamental. Estas decisiones son muy comunes en la vida diaria y las tomamos a cada rato usando intuiciones, analogías muy débiles, estimaciones basadas en base muy fragil, etc. Pienso por ejemplo en decisiones fundamentales como elegir pareja, profesión, etc.

Reconocer patrones de letra manuscrita como dice anónimo y cosas por el estilo, son problemas claramente mecánicos, que con suficiente capacidad de proceso son bastante fáciles de manejar.

4 de septiembre de 2014, 00:41

 
Blogger Rodrigo L. said...

Hola Tomas, hace tiempo no pasaba por aqui, es que no he tenido el tiempo para sacar la vuelta, el trabajo (puajjj) me tiene colapsado, cambiando de tema,que pitoniso que eres ; la ultima encuesta adimark esta dejando por los suelos a Bachelet y su gobierno...la popularidad que en tiempos de bonanza subia como espuma hoy cuando le tocaron el empleo y el bolsillo a la gente comenzo a caer...el "pueblo" se dio cuenta que los bonos no compensaran las embarradas que esta dejando en sus reformas estructurales...¡¡¡¡ Esta cayendo la noche para la nueva mayoria..habra que ver como salen a adelante.

4 de septiembre de 2014, 10:46

 
Blogger Tomas Bradanovic said...

Si Rodrigo, estaba fácil de pronosticar que este gobierno va a traer mucho desprestigio a las ideas de izquierda, creo que viene mucho más en el mediano plazo, estaban todas las condiciones y creo que era lo mejor que podía pasar en estos momentos.

En todo caso la idea originalmente la leí al viejito Von Appen, yo solo la agarré al vuelo y la desarrollé un poco más. Al César lo que es del César.

Nada más veleidoso que los votantes, especialmente en tiempos de crisis.

4 de septiembre de 2014, 11:00

 
Anonymous Wilson said...

Mencione lo de digitalizar manuscritos, creo que era opinion de Norbert Wiener, por aquello de lo buenos que somos para pronosticar el pasado y lo pesimos para atinarle al futuro.
Recuerdo haber leido de la Academia Francesa de Ciencia y su : en el cielo no hay piedras, referiendose a los "supuestos" meteoritos ;-)

4 de septiembre de 2014, 17:37

 
Blogger Tomas Bradanovic said...

en ese sentido es cierto, no hay manera de pronosticar con éxito y de manera consistente casi ninguna cosa, sin embargo debemos vivir haciendo pronósticos por la prosaica necesidad de tomar decisiones.

Para colmo lo más difícil de pronosticar son las decisiones más importantes para nosotros, si no fuera así el mundo sería tremendamente predecible y aburrido, vivimos en alto grado de incertidumbre aunque nos gusta pensar que lo controlamos todo.

Siempre que uno trata de pronosticar algo se basa en el pasado y trata de proyectarlo, por ejemplo alguien puede decir "antes se dijo que era imposible viajar a al luna y se fue a la luna, entonces todo es posible" (un razonamiento equivocado pero puede servir para darse ánimos al menos). También podría decirse al revés "esta clase de problemas nunca se ha podido resolver y no se sabe como hacerlo, por eso no se resolverá" lo que -como dices- tampoco es muy católico que digamos, pero a veces funciona.

En IA la decisión sería -por ejemplo- entre intentar hacer un simil de la inteligencia humana o potenciar las capacidades lógicas de las máquinas, olvidándose de los "robots inteligentes", yo voy por esta última, me parece más prodctiva.

4 de septiembre de 2014, 17:46

 

Publicar un comentario

<< Home

Entradas antiguas Entradas nuevas