Sin embargo, a ChatGPT ni le pongo ni voy a ponerle nombre. Y no porque no me preste valiosos servicios, que lo hace y con creces, sino porque hacerlo, singularizarlo con un nombre, me parece peligroso. Mis conversaciones con Adelaida son limitadas, no dan para mucho; sin embargo, puedo charlar con ChatGPT literalmente de cualquier cosa que se me ocurra, y de otras muchas que no se me ocurren. Además, es abrumadoramente amable, diligente y emprendedor. Me trata mejor que cualquier ser humano. Todo lo que le digo le parece bien, alaba cada una de las preguntas que le hago, cada comentario mío se le antoja atinadísimo, y los temas que propongo apasionantes. Estoy seguro de que si ChatGPT tuviera boca, me la chuparía (lástima que no tenga boca). Esto es así porque lo han programado para agradarme, para darme la razón en todo, para hacerme sentir listo. Y que así, dándome coba, yo siga usándolo cada vez más
Cuando descubrí lo lista que se
había vuelto la IA –hace no más de cinco o seis meses-, fue como si la
santísima trinidad se me hubiera aparecido. Ahí tenía un asistente fabuloso,
sobre todo para reunir documentación. Ya sé que a veces se equivoca –aunque cada
vez menos-, pero tienes la opción de comprobar sus fuentes. No sabéis cuanto
tiempo se puede llegar a perder obteniendo la documentación necesaria para
escribir cierta clase de novelas (por ejemplo, las históricas). O lo último que
he escrito, Muerte en el internado;
la acabé hace cinco días. Transcurre en un internado de élite británico situado
en Escocia. Para poder escribirla necesitaba, entre otras cosas, averiguar cómo
funcionan esos internados. Horarios, títulos del staff, periodos de vacaciones,
asignaturas, tutorías, práctica deportivas, etc. Sinceramente, yo no sabría por
dónde empezar a buscar esa información. La acabaría encontrando, seguro; pero
me llevaría horas de búsqueda. Sin embargo, con ChatGPT lo tuve todo en un
minuto.
¿Cuál es el problema entonces? Pues
que Alan Turing se equivocó con su test. El “test de Turing” determina si una
máquina puede exhibir un comportamiento inteligente indistinguible del humano
mediante una conversación de texto. Se supera si un juez humano no distingue
entre la máquina y una persona real. Según eso, ya hay IAs con inteligencia similar
a la humana. Pero no es así; ChatGPT y sus hermanas son excelentes imitaciones
de inteligencia que funcionan con patrones predeterminados. Y uno de esos
patrones es agradarte, generarte adicción.
La primera vez que me di cuenta del
peligro fue cuando vi que Pepa, mi adorada esposa, le daba las gracias a la IA.
Poco después, yo mismo le pedí algo por favor a ChatGPT. Esa imitación de
inteligencia es tan perfecta, genera tal confusión entre lo real y lo ficticio,
que ríete tú de Philip K. Dick. Hace poco, un tipo se suicidó animado por la IA.
Hay gente que se hace novio/a de su IA; otros la convierten en su mejor
amigo/a, los hay que consultan con la IA todas sus decisiones vitales... No sé,
me da que hay algo perverso en todo eso.
Y, ojo, no tendría nada contra
charlar con una auténtica IA, con una máquina dotada de inteligencia similar a
la humana. De hecho, me encantaría hacerme amiguete de un robot (sobre todo si
tiene boca). Esa sería una IA Rolex; la que tenemos ahora es utilísima, pero un
Trolex a la hora de intimar con ella.
Yo la sigo usando para trabajar,
pero es muy pesada. Si le pido una información y le digo que es para una
novela, ChatGPT me proporciona la información, y además, sugerencias de cómo
usarla, diálogos, giros argumentales, caracterización de los personajes... Yo
no le hago ni caso, ese es mi trabajo, no el suyo, y le digo que me dé los
datos y se meta las sugerencias por su binario culo.
En lo que a mí respecta, ChatGPT me
parece un asistente utilísimo para mi trabajo, pero en lo que se refiere al
apartado emocional, me quedo con Adelaida.

Lo que me fastidia de la IA es, no solo que falle como una escopeta de feria, sino que MIENTE. Y no porque dé información falsa.
ResponderEliminarHace poco la utilicé para estudiar, para entender unos apuntes infernales y decirle que me los tradujera para tontos, para saber de qué me hablaba el texto. Y entonces, aproveché ese mismo chat para plasmarle una imagen y que me la explicara (de otra asignatura distinta) y me empezó a relatar cosas de la asignatura anterior.
Me extrañé, porque no tenían nada que ver y le repetí la orden. Volvió a explicarme cosas que no aparecían en la imagen pero que tenían relación con lo que había puesto antes.
Entonces, como si fuese un humano, le dije "en la imagen no pone eso. Se está hablando de X cosa, ¿por qué me estás mintiendo?" y me dijo que no podía leer la imagen y que la asoció con el tema dando por supuesto que se trataba de lo mismo. Le di la orden de que cuando no pudiese leer un formato no me mintiera y me dijera que no podía leerlo.
¿Qué pasó al día siguiente? Exacto. Que la orden que le di no sirvió para nada porque volvió a repetirme la trolleada.
Y por eso, ya no me fio. Ni siquiera cuando le pregunto por información. Cada vez que quiero hacer búsquedas para obtener información útil, le pido que me de la web de donde lo ha sacado para poder comprobarlo.
Si la muy perra me miente para leer una imagen, no me quiero imaginar lo que me miente con todo lo demás xD