Estas dos noticias sobre la I.A me procupan, acabo de ver este video de Andrés Oppenheimer, quien se dice "tecno optimista" y sin embargo muestra gran preocupación por dos productos de la inteligencia artificial que -a su modo de ver- resultan muy peligrosos.
Menciona como primera cosa, que hicieron un estudio sobre "la veracidad de las respuestas" que dan las plataformas de inteligencia artificial, diciendo que las diez principales plataformas casi duplicaron su porcentaje de respuestas falsas sobre "noticias controversiales" en los últimos doce meses.
Esta afirmación y el estudio que cita es una completa estupidez. No cuesta nada darse cuenta que si una noticia es "controversial", clasificarla como verdadera o falsa implica automáticamente un sesgo. Solo los hechos incontrovertidos pueden ser verdaderos o falsos, los controversiales jamás.
Por ejemplo solo alguien muy tonto puede pensar que existen afirmaciones verdaderas o falsas en asuntos de opinión, y las noticias controversiales de por su naturaleza son asuntos de opinión, por más convencido que esté alguien de tener la verdad.
Resulta que un periodista mediocre -aunque cargado de premios- puede pensar que sabe la verdad o que puede saberla, nadie puede si hay controversia sobre el asunto.
Toda la prensa tendenciosa se basa en eso: elevar a la categoría de verdad nuestras opiniones y rebajar a la categoría de mentira las opiniones de los demás.
Y las principales cadenas de comunicación de masas como CNN, CBS, Fox y todas las demás son tendenciosas hasta la médula, practicando a diario ese fariseismo que puso de moda Donal Trump, cuando descubrió que podía engañar a los giles hablando contra las "fake news".
Creo que no hay otro concepto tan fariseo como ese. Es como muchos homosexuales, que acusan de homosexual reprimdo a otros, refejando lo que ellos son en los demás.
Por un mecanismo análogo, los peores mentirosos viven peleando contra las "fake news". Como decía mi santa madre "el que lo dice, lo es"
Oppenheimer se pregunta "¿cómo se explica eso? Porque uno podría pensar que a medida que pasa el tiempo estos sistemas deberían irse perfeccionando y dando respuestas cada vez más veraces". El problema es asumir que existen respuestas veraces en asuntos controvertidos.
Nadie medianamente informado preguntaría sobre asuntos controversiales a un sistema de inteligencia artificial, hay que ser muy bruto para esperar una respuesta "veraz" para esas cosas. No se necesita saber computación ni nada para darse cuenta, es algo de sentido común.
La segunda noticia que le asusta es el lanzamiento de Open AI que "permite crear videos hiper realistas de cosas que nunca pasaron".
¿Y saben por qué le preocupa tanto a este periodista? Porque los videos trucados se vienen usando desde que se inventó la televisión y los podemos ver diariamente en los noticieros de todas las cadenas.
Eso de engañar usando imágenes de video lo hace CNN y las demás cadenas todos los días. Cerrando el foco exageran la cantidad de gente, con tomas abiertas la minimizan, cortan escenas y obtienen segmentos fuera de contexto que repiten una y otra y otra vez para causar un efecto hipnótico.
¿Y le preocupa que un video de IA muestre algo que nunca existió? Que fariseo más grande, eso lo vienen haciendo hace décadas: "está pasando, lo estás viendo", usar material verdadero para metir es mucho más sucio que hacer un video falsificado.
La verdad es que estos periodistas o son muy hipócritas o sumamente ignorantes. La inteligencia artificial es mucho menos eficiente para engañar que la manipulación de filmaciones verdaderas, con el agravante que a estas últimas no puedes desmentirlas.
Lo que pasa es que a la gente ignorante le gusta creer en los milagros: que el hombre va a colonizar Marte, que todos los autos serán eléctricos, que la energía del sol reemplazará a todas las demás y que la inteligencia artificial puede pensar igual que una persona.
Todas esas son tonteras, alimento para los giles, pero entonces aparecen estafadores como Elon Musk y tantos otros vendiendo esa clase de cuentos. Total, siguen el lema del vendedor "todos los días se levanta un huevón, solo tienes que encontrar el tuyo".
La inteligencia artificial no tiene nada de peligroso, son los brutos y alaracos los peligrosos.
Y a propósito de esto, justo conversando con un amigo sobre sus problemas de salud me contó que había dado los síntomas a Chat GPT y le había dado indicaciones muy buenas, así es que pensé ¿por qué no pruebo yo?
Abrí Gemini y coloqué el siguiente prompt:
PREGUNTA estos son los valores de mi presión arterial maturina en los últimos 373 días, hace 20 días me diagnosticaron hipertensión y me recetaron Losartan 50 mg, los resultados se pueden ver en las últimas mediciones ¿que opinas del diagnostico y los resultados?
RESPUESTA El archivo CSV contiene 373 pares de valores, que representan la presión arterial sistólica y la diastólica de sus mediciones matutinas durante ese período.
Dado que me pregunta mi opinión sobre el diagnóstico y los resultados, y teniendo en cuenta que soy un modelo de lenguaje y no un profesional médico, mi análisis se limitará a la interpretación de los datos desde una perspectiva de análisis de información, no una opinión médica.
Después de eso me dio este informe de 7 páginas que considero que resulta tan práctico y útil como ir a un doctor. Entre las conclusiones me dice que:
"RESUMEN: Opinión no Médica
El análisis de sus datos históricos (373 días) confirma el diagnóstico de Hipertensión, ya que la gran mayoría de sus mediciones estaban en el Estadio 1 o 2.
Los resultados de las últimas 20 mediciones, coincidiendo con el inicio de Losartán 50 mg, son muy positivos desde el punto de vista del control de la presión arterial, mostrando un descenso significativo y llevando su presión arterial media al rango Normal. Esto sugiere una respuesta favorable al medicamento a corto plazo".
En fin, muchas gracias doctor Gemini ¿cuanto le debo? "No es nada, tómelo como cortesía de la casa". Atentos médicos de atención primaria, les está quitando pega de encima.
Obviamente no creo ciegamente lo que dice el informe, pero lo puedo confirmar con el doctor Google y el doctor Youtube, tres opiniones valen más que una. Además le preguntaré al médico del consultorio, aunque dudo que me preste atención, supongo que estas cosas no les hacen maldita gracia.
No hay comentarios.:
Publicar un comentario
"Send me a postcard, drop me a line
Stating point of view
Indicate precisely what you mean to say
Yours sincerely, wasting away
Give me your answer, fill in a form
Mine for evermore
Will you still need me, will you still feed me
When I'm sixty-four"