lunes. 29.04.2024

Los seres humanos dependen del aprendizaje social para desenvolverse por el mundo. Observamos a los demás, copiamos su comportamiento, inferimos sus metas e intenciones, y notamos si nuestro propio comportamiento y el de los demás es castigado o elogiado.

En la era digital, el aprendizaje social se lleva a cabo cada vez más en redes sociales en plataformas como Facebook, Twitter o TikTok. El aprendizaje social en estas plataformas tiene una importante dimensión debido a los algoritmos de su contenido que gestionan qué información vemos y cómo la vemos. El aprendizaje social mediado por algoritmos significa que, por primera vez en la historia, gran parte de lo que aprendemos y cómo lo aprendemos está influido por algoritmos diseñados por determinadas corporaciones.

El aprendizaje social mediado por algoritmos tiene implicaciones de largo alcance. Los algoritmos afectan a la forma en que encontramos aspectos morales y políticos en Twitter o Facebook o a los videos que se vuelven virales en TikTok o qué teorías de conspiración se promueven en YouTube, entre otras.

Quizás el factor más sorprendente en estas nuevas tendencias digitales es que todavía sabemos poco sobre cómo los algoritmos están impactando en nuestro aprendizaje social. El aumento del aprendizaje social mediado por algoritmos ha sido tan rápido que ha superado el estudio científico de las redes sociales.

Gran parte de lo que aprendemos y cómo lo aprendemos está influido por algoritmos diseñados por determinadas corporaciones

Hay unos sesgos en el aprendizaje social: Los seres humanos no aprenden de los demás de manera uniforme; Hay varios sesgos de contexto y contenido bien documentados que han surgido para optimizar la función del aprendizaje social:

Los sesgos de contexto describen una tendencia a aprender en contextos particulares, y de tipos particulares de individuos. Por ejemplo, los humanos tienden a copiar a individuos prestigiosos, y aprenden desproporcionadamente de sus grupos. El sesgo de prestigio fomenta el aprendizaje social eficiente de individuos exitosos, ya que los marcadores de prestigio (por ejemplo, una casa grande) pueden indicar indirectamente el valor económico del individuo.

Los sesgos de contenido describen una tendencia a prestar atención desproporcionadamente y aprender de ciertos tipos de contenido informativo en nuestros entornos. Por ejemplo, los humanos prestan gran atención a la información moralizadora, y a la información emocionalmente excitante, específicamente la información de valencia negativa.

El sesgo intragrupal puede ser una estrategia eficaz en la evolución de la cooperación mutua, y también puede ayudar a los humanos a adquirir información que es más relevante para la supervivencia en sus ecologías particulares. Un sesgo hacia la información moralizadora puede ayudar a los grupos humanos a regular las normas sociales y estigmatizar a los violadores de las normas, mientras que un sesgo hacia la información social negativa puede habernos ayudado a detectar y comunicar rápidamente las amenazas sociales, como las personas engañosas.

Los humanos prestan gran atención a la información moralizadora, y a la información emocionalmente excitante, específicamente la información de valencia negativa

En una revisión publicada en la revista Trends in Cognitive Science este mismo mes, un grupo de científicos sociales del Kellogg School of Management en Northwestern, describe cómo las funciones de los algoritmos de las redes sociales no están alineadas con los instintos sociales humanos destinados a fomentar la cooperación, lo que puede conducir a la polarización y la desinformación a gran escala.

Los seres humanos están predispuestos a aprender de los demás de una manera que normalmente promueve la cooperación y la resolución colectiva de problemas, por lo que tienden a aprender más de los individuos que perciben como parte de su grupo y en especial de aquellos que perciben como personas de prestigio.

Además, cuando los sesgos de aprendizaje estaban evolucionando por primera vez, era importante priorizar la información moral y emocionalmente cargada, ya que era más probable que esta información fuera relevante para hacer cumplir las normas grupales y garantizar la supervivencia colectiva. Por el contrario, los algoritmos suelen seleccionar información que aumenta la participación del usuario para aumentar los ingresos publicitarios. Esto significa que los algoritmos amplifican la información que los humanos están dispuestos a aprender, y pueden sobresaturar los feeds (El feed es el contenido que cualquier persona ve en nuestro perfil nada más entrar en él: las imágenes, los vídeos, el texto y la impresión estética) de las redes sociales con lo que los investigadores llaman información prestigiosa, intragrupal, moral y emocional (PRIME), independientemente de la precisión del contenido o la representatividad de las opiniones de un grupo.

Como resultado de esto, es más probable que se amplifique el contenido político extremo o los temas controvertidos, y si los usuarios no están expuestos a opiniones externas a estas, pueden encontrarse con una falsa comprensión de la opinión mayoritaria de diferentes grupos. No es que el algoritmo esté diseñado para interrumpir la cooperación, es solo que sus objetivos son diferentes. Y en la práctica, cuando juntas esas funciones, terminas con algunos de estos efectos potencialmente negativos.

Los algoritmos de las redes sociales no están alineados con los instintos sociales humanos destinados a fomentar la cooperación

Para abordar este problema, el grupo de investigación primero propone que los usuarios de las redes sociales deben ser más conscientes de cómo funcionan los algoritmos y por qué cierto contenido aparece en su feed. Las compañías de redes sociales no suelen revelar todos los detalles de cómo sus algoritmos seleccionan el contenido, pero un comienzo podría ser ofrecer explicaciones de por qué a un usuario se le muestra una publicación en particular. Por ejemplo, ¿porque los amigos del usuario están interactuando con el contenido o porque el contenido es generalmente popular? Fuera de las compañías de redes sociales, el equipo de investigación está desarrollando sus propias intervenciones para enseñar a las personas cómo ser consumidores más conscientes de las redes sociales.

Además, los investigadores proponen que las compañías de redes sociales podrían controlar a la comunidad. Así en lugar de favorecer únicamente la información de PRIME, los algoritmos podrían establecer un límite en la cantidad de información de PRIME que amplifique y priorice la presentación a los usuarios de un conjunto diverso de contenido. Estos cambios podrían continuar amplificando la información atractiva al tiempo que evitan que el contenido más polarizador o políticamente extremo se represente en exceso en los feeds.


Datos clave del estudio:

1. Los algoritmos de las redes sociales están diseñados para promover la participación del usuario, amplificando así los sesgos humanos inherentes para aprender de miembros prestigiosos o del grupo.

2. Esta amplificación a menudo promueve la desinformación y la polarización, ya que no discierne la precisión de la información.

3. Los investigadores sugieren que tanto los usuarios como las empresas de tecnología deben tomar medidas para mitigar estos efectos, incluida la educación del usuario y los cambios algorítmicos.

Por último, compartir esta reflexión de William Shakespeare: “El aprendizaje es un simple apéndice de nosotros mismos; dondequiera que estemos, está también nuestro aprendizaje”.

El aprendizaje social de la era digital