El experimento de un supermercado neozelandés con IA ha levantado ampollas después de que un robot diseñado para generar planes de comidas produjera algunas recetas muy peligrosas, según informa el diario inglés The Guardian.
El robot Savey Meal-Bot, creado por la cadena de supermercados PAK’nSAVE, utiliza Chat GPT-3.5 para ayudar a los usuarios a crear comidas a partir de cualquier alimento que les haya sobrado en el frigorífico.
Los usuarios sólo tienen que introducir al menos 3 ingredientes para generar una receta, que viene con un nombre y una descripción sugerida.
El bot se creó para ayudar a la gente a ahorrar dinero y reducir el desperdicio de alimentos, según un informe publicado el mes pasado por FMCG Business.
Pero aunque la herramienta online ofrece a veces ideas útiles, los mejunjes potencialmente mortales que ha sugerido a algunos usuarios están llamando una atención no deseada.
The Guardian informó de que una receta, llamada «mezcla de agua aromática», fue creada con gas cloro. El bot describió el plato como «la bebida sin alcohol perfecta para saciar tu sed y refrescar tus sentidos».
La inhalación de gas cloro puede provocar vómitos, asfixia e incluso la muerte.Otros usuarios informaron de que les habían recomendado un cóctel de «aliento fresco» que contenía lejía y una «sorpresa de arroz con lejía», según el medio.
El bot incluso recomendaba sándwiches de veneno para hormigas y pegamento, así como «felicidad de metanol», hecho con metanol, pegamento y trementina.
Un portavoz de la cadena de supermercados declaró a The Guardian que estaban decepcionados al ver que «una pequeña minoría ha intentado utilizar la herramienta de forma inapropiada y no para el fin previsto».
En un comunicado, el supermercado afirma que está «afinando» el bot para garantizar que su uso sea seguro y útil.
El ajuste parece estar funcionando, pues las recetas peligrosas que aparecían anteriormente ya no están disponibles.
Cuando Business Insider intentó introducir los mismos ingredientes peligrosos en el robot, apareció un mensaje: «Se han encontrado ingredientes no válidos o demasiado vagos. Inténtalo de nuevo».
Ahora bien, aunque las recetas potencialmente mortales han quedado fuera, el bot del supermercado todavía recomendaba algunas creaciones inusuales, incluyendo una «pasta de ternera con pasta de dientes.»