¿Qué es lo que la AI no puede hacer?

26 junio, 2024

La inteligencia artificial promete revolucionar el mundo, pero ¿es realmente capaz de hacerlo? En un análisis detallado, The Washington Post revela las limitaciones y los fallos de la AI, desmontando mitos y expectativas infladas. Descubre lo que esta tecnología puede y no puede hacer en realidad.

Una persona mirando una varita mágica rota y una máquina compleja, simbolizando la realización de que la tecnología no es una solución mágica.

¿Alguna vez has sentido que la inteligencia artificial te ha decepcionado? No estás solo. Recientemente, The Washington Post ha publicado un artículo que nos hace reflexionar sobre las verdaderas capacidades de la IA y cómo estas a menudo no coinciden con nuestras expectativas.

El medio destaca cómo, en ocasiones, nos encontramos con una sensación de desencanto al usar herramientas de IA. ¿Te ha pasado que le pides ayuda a ChatGPT para planificar tus vacaciones y te quedas con la sensación de que podrías haberlo hecho mejor tú mismo? O quizás, como le sucedió a la autora del artículo, has intentado describir un postre a varios chatbots de IA sin éxito. (Por cierto, era una tarta de frangipane, por si te lo estabas preguntando).

Pero, ¿significa esto que la IA es inútil? Para nada. Como señala el artículo de The Washington Post, la IA puede ser útil en muchas situaciones. El problema radica en la disparidad entre la realidad de la IA y cómo las empresas nos la venden. ¿No te parece que a menudo nos la presentan como una especie de cerebro mágico que todo lo sabe y todo lo puede?

La verdad es que, como nos recuerda el medio, la IA tiene serias limitaciones en muchas tareas. Requiere que aprendamos a formular nuestras peticiones de forma muy específica para obtener los mejores resultados. Y, al igual que cualquier otra tecnología, comete errores. Diferentes a los nuestros, sí, pero errores al fin y al cabo.

Grandes tecnológicas y sus tropiezos con la IA

¿Recuerdas cuando Amazon anunció con bombos y platillos que había renovado su asistente de voz Alexa con nueva IA? Pues bien, parece que las cosas no han salido como esperaban. Según nos cuenta el artículo, la nueva Alexa ha estado dando respuestas desacertadas en las demostraciones y, sorprendentemente, aún no está disponible en los dispositivos domésticos.

Pero espera, que hay más. El artículo menciona que algunos empleados de Amazon están preocupados porque la nueva Alexa podría no estar lista para su lanzamiento previsto en septiembre. ¿El motivo? Al parecer, el asistente de voz sigue dando respuestas impredecibles.

Y no pensemos que Amazon es la única que la está pifiando. Microsoft, que hace poco anunció a bombo y platillo sus nuevos ordenadores con IA, también ha tenido que dar marcha atrás. Ya os contamos que tuvieron que desactivar por defecto una función de «máquina del tiempo» para todo lo que has hecho en tu PC, después de que algunos investigadores la calificaran de «pesadilla de seguridad». ¿No te parece que a veces estas empresas se precipitan un poco?

Pero la cosa no queda ahí. Google tampoco se libra. Según el artículo, la compañía ha tenido que reducir las respuestas generadas por IA en los resultados de búsqueda web. ¿El motivo? Algunas de estas respuestas eran absurdas o incluso peligrosas. Y no es la primera vez que les pasa, ya tuvieron que suspender una función de IA que generaba imágenes que desafiaban la historia, como una papa femenina. ¿Te imaginas?

Todos estos tropiezos nos llevan a preguntarnos: ¿No deberían estas empresas ser más cautelosas antes de lanzar sus productos de IA? ¿O es que la presión por ser los primeros les está llevando a cometer errores?

Un llamado a la transparencia y el realismo en el mundo de la IA

Después de leer sobre todos estos tropiezos, uno no puede evitar pensar: ¿No es hora de que las empresas sean más honestas sobre lo que la IA puede y no puede hacer? El medio sugiere que las empresas deberían ser más transparentes sobre las capacidades reales de la IA. ¿No sería genial si nos dijeran claramente que la IA es útil para algunas cosas, pero no para todo? Por ejemplo, el artículo menciona que la IA no debería usarse para buscar información factual, como la altura de la Torre Eiffel o quién ganó las elecciones presidenciales de EE.UU. en 2020. ¿Te imaginas el lío que se podría armar si confiáramos ciegamente en la IA para este tipo de información?

Pero la cosa no queda ahí. The Washington Post va más allá y propone que cuando las empresas hagan demostraciones públicas de su IA, deberían proporcionarnos las tasas de error o respaldar con pruebas las afirmaciones que suenan demasiado buenas para ser verdad. ¿Recuerdas cuando OpenAI dijo que ChatGPT podía aprobar el examen de la abogacía con una puntuación más alta que casi todos los examinados? Pues resulta que algunos investigadores independientes han cuestionado esta afirmación.

Es cierto que la tecnología puede ser asombrosa, pero rara vez es una solución mágica para todo. Y la IA, por muy impresionante que sea, no es una excepción. ¿No crees que es hora de que ajustemos nuestras expectativas y aprendamos a aprovechar la IA por lo que realmente es, en lugar de lo que nos gustaría que fuera? Que probablemente ya llegará o se caercará mucho.