Instagram salió al mercado en el 2010. Promovía un acercamiento al contenido de forma pulida y me atrevería a decir visualmente perfecta. Curadores de contenido eran aquellos que lideraban la interacción de usuario con medios. Hace seis años aproximadamente, hubo un cambio: la valoración del consumidor migró a la autenticidad. Esto se pudo ver con el incremento de aplicaciones como TikTok, donde el algoritmo valoraba interacción y contenido de nicho, también se ve en la masificación de ‘influencers’ compartiendo gustos “reales”. En esta nueva era, primaban experiencias personales como capital social y autenticidad como forma para conectar.
El símbolo actual de autenticidad es Alysa Liu. Tras haber alcanzado múltiples títulos en patinaje artístico desde muy joven, el ‘burnout’ la llevo a retirarse del deporte, sorprendiendo a muchos. Sin embargo, su regreso posterior cambió el paradigma: volvió en sus propios términos, con una narrativa centrada en el disfrute y la autonomía personal. Este giro hacia una expresión más honesta y menos performativa de su carrera la consolidó como un símbolo para la generación Gen Z de vulnerabilidad y transparencia consigo misma.
Sin embargo, en LinkedIn la historia empieza a cambiar. Esta red social nació como una red profesional. Para conectar, comunicar hitos profesionales. Evidentemente, siempre hubo un nivel de comunicación visual más pulcra. Pero el contenido generado respecto a tu “subject matter expertise” o área de experiencia, siempre fue la misma: uno tenía al alcance el conocimiento que había acumulado hasta ese momento. Como cualquier página web, se podía copiar y pegar contenido de otras fuentes, pero para hablar con autoridad uno tenía que conocer sus áreas de experiencia.
Lo cierto es que se avecina una crisis en la confianza de la autoría en LinkedIn. Por un lado, publicaciones aparentemente escritas por humanas, que llegan a tu perfil aparentemente de forma orgánica, son publicidad. Es difícil identificarlo porque aparecen como “promocionado”, pero no es el típico contenido orgánico que alguien de tu red interactuó. Por otro lado, están personas, con nombre y apellido registrados en RENIEC, publicando contenido generado por Inteligencia Artificial, haciéndolo pasar por autoría propia. Personalmente, no veo negatividad o error en realizar esa acción, pero añade a la crisis de confianza y autenticidad en una red social que, en sí, no lo facilita.
Termina pasando que grupos enteros de las generaciones jóvenes en la fuerza laboral no quieren participar en esta red social. O, si lo hacen, se percibe como por obligación. Estas perciben artificialidad y contenido corporativo vacío, con una consecuencia clara: LinkedIn deja de sentirse humano.
Hay otra capa agravante, que va entorno a los terceros espacios. Aquellos lugares intermedios entre casa y trabajo donde se construía comunidad. Ahí conectamos, vinculamos. En el pasado primaban y eran prioritarios: parques, clubes, bibliotecas, ferias. Hoy en día, el internet se ha vuelto el tercer espacio de la gran mayoría de comunidades. LinkedIn es, a final de cuentas, el tercer espacio laboral más importante. Lo que vendría a ser en el pasado una feria laboral, o un evento de trabajo. El problema se agrava si las personas dejan de confiar en ese espacio, ya que se deteriora una infraestructura social importante para el trabajo y la ciudadanía profesional.
En un mundo de ‘fake news’, de contenido artificial, de analfabetismo mediático, tenemos que buscar la autenticidad y la transparencia. Si no confiamos en lo que leemos, consumimos o en quienes interactuamos, nuestra ciudadanía se quiebra. Esto no es solo una percepción generacional. Estudios globales como los de Edelman (firma multinacional de relaciones públicas y comunicaciones) muestran un aumento sostenido en desconfianza hacia instituciones y actores con visiones distintas, reflejando una fragmentación de la confianza social.
En este contexto, una posible respuesta no es limitar el uso artificial, sino aumentar la transparencia. Dado el nivel de inversión de LinkedIn en herramientas de IA, una medida podría ser etiquetas explícitas de contenido generado o asistido por IA misma, permitiendo cerrar la brecha de confianza y permitir al usuario distinguir entre experiencia humana directa y producción artificial.
Pasaba mucho que, al inicio del desarrollo de la IA, gigantes como Open AI o Anthropic, querían que los LLM “suenen lo más humano posible”. Es irónico. Ahora los humanos quieren escucharse o leerse como IA.













Deja una respuesta