La inteligencia artificial generativa se ha vuelto omnipresente en el trabajo profesional. Interviene en la redacción de textos, el análisis de información, la elaboración de informes y la toma de decisiones cotidianas. Herramientas como ChatGPT, Gemini, Claude o Copilot son vitales en diversos sectores. Sin embargo, el deslumbramiento reciente no debería ocultar una realidad básica. La IA no piensa, no comprende y no tiene criterio propio. Predice palabras.
Un modelo de lenguaje no razona ni evalúa el mundo. Calcula probabilidades sobre qué palabra debería seguir a otra a partir de patrones aprendidos en grandes volúmenes de datos textuales, visuales o sonoros disponibles en la red. El resultado puede ser brillante, pero también problemático. Estos sistemas pueden inventar citas, mezclar fuentes, confundir hechos o reproducir errores ampliamente difundidos. No por mala intención, sino porque no comprenden lo que afirman ni pueden evaluar sus consecuencias
Ese límite técnico tiene una consecuencia directa. Cuando se delega en la inteligencia artificial la producción completa de un texto, se cede también el control del enfoque, del tono y de la responsabilidad. El contenido puede sonar natural, convincente, pero no necesariamente ser preciso, pertinente o éticamente defendible. En entornos profesionales, esa cesión implica riesgo.
Por esa razón, el punto de partida no debería ser la herramienta, sino la idea. La inteligencia artificial funciona mejor cuando opera sobre un insumo humano previo, aunque sea incompleto o desordenado. Allí ya existe intención, contexto y una mirada situada. En ese escenario, la tecnología cumple un rol claro y útil. Ordena, corrige, sintetiza y enriquece. Actúa como asistente editorial, no como autora.
El problema aparece cuando se invierte el proceso. Pedirle a un modelo que escriba desde cero sobre un tema complejo equivale a entregar la voz a un sistema que no conoce los objetivos reales del texto, el entorno social en el que circulará ni las consecuencias de lo que afirma. El resultado suele ser un contenido genérico, sesgado, y, en no pocos casos, impreciso. La comodidad inicial termina pagando un costo alto en calidad y credibilidad.
Cuando se antropomorfiza a la inteligencia artificial y se le atribuye capacidad de juicio, se tiende a delegar en ella decisiones que exigen pensamiento propio. Al dejar de escribir, analizar y contrastar por cuenta propia, se debilita la capacidad de tomar posición. En cualquier ámbito donde se ejerza responsabilidad, no basta con información. Se espera criterio. Eso no puede delegarse en un sistema predictivo.
Existe además otro malentendido frecuente. Se asume que la IA puede corregir sesgos o evaluar la solidez de una idea. No es así. Estos modelos no poseen juicio crítico ni capacidad moral. Pueden evitar ciertos discursos dañinos por diseño, pero no están hechos para evaluar la calidad de un razonamiento. Si el punto de partida es confuso o débil, la respuesta tenderá a ser igual.
Esto se observa con claridad cuando el usuario modifica una pregunta o introduce un nuevo matiz. Ante ese cambio, el modelo no rectifica ni reconsidera una postura, simplemente recalcula su respuesta en función de las nuevas instrucciones. La aparente “corrección” no responde a comprensión, sino a un ajuste automático de probabilidades.
Escribir antes de automatizar no es una consigna romántica. Es una necesidad.. Redactar obliga a ordenar el pensamiento, identificar vacíos, jerarquizar argumentos y asumir una postura. Ese proceso fortalece el criterio profesional. Cuando luego se incorpora la inteligencia artificial, lo que se obtiene es retroalimentación, no sustitución. El texto mejora sin perder autoría.
Delegar completamente este proceso puede parecer eficiente en el corto plazo. Sin embargo, empobrece la capacidad analítica en el mediano plazo. En un entorno donde la reputación, la precisión y la ética importan, ese empobrecimiento trae consecuencias.
El uso responsable de la IA exige un orden claro. Primero el pensamiento humano, luego la automatización. Primero la idea, después la herramienta. No se trata de rechazar la tecnología, sino de ubicarla en su lugar. Es una gran asistente, como una calculadora, no una creadora autónoma.
Pensar antes de automatizar es hoy una forma básica de responsabilidad profesional. Esa es la diferencia entre usar la tecnología con criterio y depender de ella sin cuestionamientos.
*El Comercio abre sus páginas al intercambio de ideas y reflexiones. En este marco plural, el Diario no necesariamente coincide con las opiniones de los articulistas que las firman, aunque siempre las respeta.












Deja una respuesta