El algoritmo de Facebook toma en cuenta un índice de recomendaciones (que llama afinidad) para definir lo que aparece en nuestro feed de noticias: la información que aparece en nuestro feed está determinada por lo que Facebook considera tiene más relevancia para nosotros.
Evidentemente este algoritmo tiene una serie de implicaciones. Por una parte es altamente efectivo, lo cual es fácil de comprobar con las más de 700 millones de personas en el mundo inscritas. Por otra parte funciona como un filtro, determinando con qué personas nos relacionamos y con qué información interactuamos.
Facebook evalua qué información externa es más relevante para ciertas personas, lo cual indirectamente es un acto de censura. ¿Cómo saber que Facebook no tomará en cuenta en el futuro, para su algoritmo, ciertas palabras claves que según su análisis nos interesan para definir la información relevante para nosotros? Esto es algo que ya ocurre en los anuncios de Facebook y Google y que podría fácilmente empezar a ocurrir en el feed de noticias, borrando la frontera entre el marketing y la interacción social.
Facebook, en este sentido, funciona como una especie de terapeuta digital perfecto: nunca te enterarás de que estás teniendo o podrías tener una crisis existencial porque la información que recibes es exactamente la que quieres (tu realidad nunca será seriamente cuestionada, ya que difícilmente se enfrentará a lo otro, de igual manera que no te enterabas en la escuela de las fiestas sexuales esotéricas que celebraban algunos de tus compañeros o de las reuniones del club de lepidópteros). Sin embargo hay quienes queremos vivir esas crisis y entrar en contacto con lo diferente, justamente porque son los detonadores de cambios radicales de ámbitos sociales e informativos —esos espacios alternativos de cuya existencia nunca te enterarás dentro de Facebook.
Con información de:
[The Economist, Tech Crunch, The Daily Beast]
Resumido del artículo original en: PijamaSurf