Hablar con educación al chatbot puede parecer inofensivo, pero cada palabra extra implica más consumo de energía, más procesamiento… y más gastos para la empresa detrás de la inteligencia artificial.
¿Eres de los que le escribe a ChatGPT con un “por favor” al inicio y un “gracias” al final? No estás solo. La mayoría de los usuarios cree que tratar bien a la inteligencia artificial no solo es una cuestión de buenos modales, sino también una forma de obtener mejores respuestas. Incluso hay quienes bromean diciendo que, si algún día las máquinas se rebelan, serán indulgentes con quienes las trataron bien.
Una encuesta realizada por Future en Estados Unidos y Reino Unido reveló que el 70% de los usuarios suele ser cortés con la IA, principalmente por costumbre: más del 80% considera normal usar frases como “por favor” y “gracias”. Curiosamente, cerca del 18% confesó que lo hace por temor a un futuro donde las máquinas cobren conciencia.
Pero lo que pocos saben es que esa cortesía tiene un precio. Y uno bastante alto. Según Sam Altman, CEO de OpenAI, la empresa detrás de ChatGPT, cada “hola”, “por favor” y “gracias” que se añade a una consulta no solo extiende el mensaje, sino que encarece el proceso. “Decenas de millones de dólares bien gastados”, dijo con ironía al responder en X a un usuario que le preguntó por el impacto económico de la amabilidad.
tens of millions of dollars well spent--you never know
— Sam Altman (@sama) April 16, 2025
¿La educación representa un gasto energético?
El motivo está en cómo funciona el modelo. ChatGPT no interpreta las frases como lo haría una persona, sino que las divide en pequeñas unidades llamadas tokens (palabras o fragmentos de palabras). Cuantos más tokens contiene un mensaje, mayor es el esfuerzo computacional que debe realizar el sistema. Eso se traduce en más uso de GPU, mayor carga sobre los servidores y, en consecuencia, más consumo eléctrico.
Por ejemplo, una instrucción como: “¿Podrías ayudarme a entender este texto, por favor? Te lo agradecería mucho”, exige mucho más procesamiento que una simple orden como: “Explícalo fácil”. En términos técnicos, la cortesía implica mayor gasto energético.
Según Epoch AI, cada consulta promedio a ChatGPT consume unos 0,3 vatios-hora de electricidad. Puede parecer poco, pero al multiplicarlo por los 365 mil millones de solicitudes anuales que, según OpenAI, recibe el sistema, el resultado es abrumador.
Fresh numbers shared by @sama earlier today:
— OpenAI Newsroom (@OpenAINewsroom) December 4, 2024
300M weekly active ChatGPT users
1B user messages sent on ChatGPT every day
1.3M devs have built on OpenAI in the US
Un informe de BestBrokers calcula que el consumo energético total de ChatGPT podría superar los 1.000 gigavatios-hora al año, una cifra similar a la de algunos países pequeños. Y esto no es un caso aislado: la Agencia Internacional de la Energía advierte que este tipo de demanda, impulsada por la inteligencia artificial, podría duplicar las emisiones del sector en la próxima década si no se controla su impacto.
Por ahora, las máquinas no tienen sentimientos. Pero sí tienen un contador de energía en constante movimiento. Y cada palabra extra que se escribe por cortesía, aunque parezca inofensiva, se convierte en parte de una factura millonaria que alguien —en este caso, OpenAI— debe pagar.
Te recomendamos
Video recomendado
Comparte esta noticia