Saltar al contenido principalSaltar al pie de página

Inteligencia Artificial

La IA elige a sus amigos como hacemos los humanos

Un estudio muestra que la IA replica patrones sociales reales

La IA y la lógica humana detrás de las relaciones sociales.

La IA y la lógica humana detrás de las relaciones sociales. / Crédito: Igor Omilaev en Unsplash.

Pablo Javier Piacente / T21

Por qué confiar en El Periódico Por qué confiar en El Periódico Por qué confiar en El Periódico

La Inteligencia Artificial (IA) exhibe las mismas preferencias sociales y patrones de relación que nosotros: cuando los grandes modelos de lenguaje (LLM) toman decisiones sobre redes y amistades, tienden a actuar como personas, tanto en simulaciones sintéticas como en contextos reales.

investigadores de la Universidad Estatal de Arizona y la Universidad de California en Davis, en Estados Unidos, han descubierto que los grandes modelos de lenguaje (LLM) forman redes sociales de amigos y colegas siguiendo las mismas reglas que sustentan las amistades y las relaciones laborales humanas.

El nuevo estudio publicado en PNAS Nexus muestra que, cuando se les pide a los modelos de IA que elijan con quién conectarse, los agentes virtuales reproducen patrones como la homofilia o preferencia por los similares, las conexiones a través de amigos en común y la atracción preferencial, que es la tendencia a unirse a nodos ya extremadamente conectados. Estos patrones son los mismos que se aprecian entre los seres humanos.

Amistades artificiales: la IA construye vínculos igual que los humanos

Los autores diseñaron un marco experimental donde múltiples LLM actuaban como agentes independientes en simulaciones que replicaban redes de amistad, telecomunicaciones y entornos laborales reales. A cada agente se le ofrecía información sobre otros nodos, como el número de contactos, los vecinos comunes y atributos como aficiones o ubicación, y se les pedía decidir con quién enlazar.

Según una nota de prensa, el resultado marcó claramente que las redes generadas por los agentes de IA mostraron todas las propiedades indicadas previamente e incluso otras, bajo parámetros propios y representativos de las redes humanas. Además, los modelos no aplicaron una regla única en todos los contextos, como también sucede entre los humanos.

En simulaciones de amistad fue predominante la homofilia, por lo cual los agentes preferían a los parecidos, mientras que en ámbitos organizacionales favorecieron la heterofilia, o sea la conexión con figuras con distinto estatus, como supervisores o superiores. Esa adaptación contextual replica patrones observados en la movilidad social humana, sugiriendo que los agentes de IA captan matices sociales más allá de simples correlaciones lógicas.

Para comprobar hasta qué punto estas decisiones se parecen a las humanas, los investigadores llevaron a cabo además una encuesta controlada con cerca de cien participantes reales, exponiendo a los voluntarios humanos a las mismas elecciones de enlace que la IA.

Ventajas y riesgos de una IA que replica el comportamiento social humano

La comparación mostró una fuerte alineación entre las decisiones humanas y las de los modelos de IA, aunque los agentes artificiales exhibieron una consistencia interna mayor que las personas. Esto deja en claro que los LLM son reproductores efectivos de la dinámica social, mostrándose casi como réplicas perfectas del comportamiento humano.

El aspecto positivo es que estos agentes pueden convertirse en herramientas valiosas de simulación: permiten modelar intervenciones en redes, como en salud pública, diseño organizacional o difusión de información, y generar conjuntos de datos sintéticos que respeten la privacidad humana.

Referencia

Network formation and dynamics among multi-LLMs. Marios Papachristou et al. PNAS Nexus (2025). DOI:https://doi.org/10.1093/pnasnexus/pgaf317

Por otro lado, si la IA reproduce sesgos sociales, como preferencias por grupos concretos o desigualdades estructurales, podría reforzar discriminaciones o facilitar manipulaciones dirigidas en entornos donde los modelos interactúen con personas reales. Todo dependerá de la intención de quienes entrenen a los modelos.

Frente a esto, los investigadores marcan la necesidad de diseñar y alinear estos sistemas con criterios de equidad y transparencia, principalmente antes de desplegarlos a gran escala. Entender que la IA “elige amigos” con lógica humana obliga a repensar no solo cómo se entrenan estos modelos, sino también qué reglas y medidas de seguridad se adoptan cuando intervienen en redes sociales y profesionales.