Noticias y Análisis 22 min de lectura

La carrera armamentista de los algoritmos: lo que revelaron los denunciantes de la BBC sobre Meta y TikTok

Este artículo fue traducido automáticamente del inglés por una IA. Leer la versión original en inglés →
Carrera armamentista de algoritmos entre Meta y TikTok
🎧 Escuchar
Mar 28, 2026
Modo de lectura

La carrera armamentista de los algoritmos de redes sociales entre Meta y TikTok ha tenido víctimas, y no son las empresas. El 16 de marzo de 2026, la BBC emitió Inside the Rage Machine, un documental construido a partir del testimonio de más de una docena de denunciantes y exempleados de ambas plataformas. La tesis central no es nueva en abstracto: los algoritmos optimizados para el engagement amplían los contenidos dañinos. Lo novedoso es la precisión. Investigadores, ingenieros y miembros de los equipos de confianza y seguridadDepartamento dentro de las empresas tecnológicas encargado de aplicar las normas de la plataforma, revisar denuncias de contenido dañino y proteger a los usuarios frente a abusos e infracciones. identificados con nombres y apellidos, describieron públicamente cómo ambas empresas tomaron decisiones deliberadas para relajar los controles de seguridad en busca de ventaja competitiva.

Este artículo explica qué reveló el documental, cómo funciona realmente la carrera armamentista de los algoritmos de redes sociales en el plano técnico, y por qué el patrón sigue repitiéndose a pesar de años de escrutinio público.

Lo que dijeron los denunciantes

El documental, producido por Marianna Spring, corresponsal de la BBC especializada en investigaciones sobre redes sociales, recoge el testimonio de personas con acceso privilegiado en ambas empresas. Las revelaciones más significativas se dividen en dos categorías: la decisión de Meta de relajar los estándares de seguridad de contenido, y la priorización interna de casos políticos sobre denuncias de protección infantil en TikTok.

La decisión de Meta sobre el contenido “límite”. Matt Motyl, investigador sénior en Meta de 2019 a 2023, que realizó experimentos con cientos de millones de usuarios para probar cómo se clasificaba el contenido en los feeds, declaró a la BBC que Instagram Reels se lanzó en 2020 sin protecciones de seguridad adecuadas. Investigaciones internas mostraron que los comentarios en Reels tenían una prevalencia de intimidación y acoso un 75 por ciento mayor, un 19 por ciento más de discurso de odio y un 7 por ciento más de violencia e incitación en comparación con el resto de Instagram. Un ingeniero de Meta identificado como “Tim” describió que la dirección superior le ordenó permitir más contenido “límite” dañino (material que técnicamente no viola las políticas pero incluye teorías conspirativas, misoginia y otros contenidos que generan engagement) en los feeds de los usuarios. El motivo aducido: “la cotización en bolsa ha bajado”.

La brecha de personal. Mientras Meta asignaba 700 empleados al crecimiento de Reels, los equipos de seguridad vieron denegadas dos posiciones especializadas para la protección infantil y diez puestos adicionales para la integridad electoral, según otro exempleado sénior.

La inversión de prioridades en TikTok. Un miembro del equipo de confianza y seguridadDepartamento dentro de las empresas tecnológicas encargado de aplicar las normas de la plataforma, revisar denuncias de contenido dañino y proteger a los usuarios frente a abusos e infracciones. identificado como “Nick”, que monitorizó los sistemas internos de TikTok durante varios meses en 2025, facilitó a la BBC acceso a paneles internos que mostraban cómo la empresa clasificaba los informes de seguridad. Los casos que involucraban a políticos recibían mayor prioridad que los informes sobre daños a menores. En un ejemplo documentado, una figura política objeto de burlas por ser comparada con un pollo fue priorizada sobre un joven de 17 años que denunciaba ciberacoso y una chica iraquí de 16 años que sufría extorsión sexual.

La visión del ingeniero de algoritmos. Ruofan Ding, ingeniero de aprendizaje automático que construyó el motor de recomendación de TikTok de 2020 a 2024, describió el sistema como una opaca “caja negra” con una controlabilidad limitada, incluso para sus propios creadores.

Por qué importa el contenido “límite”

El concepto de “contenido límiteContenido que se sitúa justo por debajo del umbral de infracción de normas de una plataforma, pero diseñado para provocar reacciones emocionales intensas como la indignación, haciéndolo muy eficaz para generar engagement.” es central en esta historia. Se refiere a material que se sitúa justo por debajo del umbral de violación de las políticas: técnicamente no prohibido, pero diseñado para provocar reacciones emocionales intensas. Una publicación que promueve una teoría conspirativa pero se detiene antes de hacer llamamientos explícitos a la violencia. Un meme misógino sin insultos directos. Contenido que te enfada lo suficiente para comentar, compartir o discutir, pero no lo bastante para denunciarlo.

Estas plataformas utilizan algoritmos de recomendación que deciden qué aparece en tu feed. Los algoritmos se entrenan con señales de engagement: me gusta, comentarios, comparticiones, tiempo de visualización. El contenido que provoca indignación genera sistemáticamente más engagement que el que informa o entretiene con calma. Esta observación no es nueva. Frances Haugen, exgestora de producto en Facebook, testificó ante el Congreso de los Estados Unidos en 2021 que un cambio algorítmico de 2018 en Facebook comenzó a priorizar publicaciones de alto engagement, y que investigaciones internas mostraban que el “contenido de rabia” recibía el mayor engagement y, por tanto, la mayor distribución.

Lo que Inside the Rage Machine añade es la evidencia de que esta dinámica se intensificó durante la batalla competitiva entre Meta y TikTok. Cuando el formato de vídeo corto de TikTok comenzó a atraer usuarios de Instagram, Meta se apresuró a lanzar Reels como competidor directo. Los denunciantes describen una empresa que trataba la seguridad como un obstáculo para la velocidad, no como un requisito para el lanzamiento.

La evidencia académica

Los testimonios de los denunciantes coinciden con la investigación revisada por pares. Un estudio de 2025 publicado en PNAS Nexus, “Engagement, User Satisfaction, and the Amplification of Divisive Content on Social Media“, realizó una auditoría algorítmicaExamen estructurado del comportamiento real de un algoritmo de recomendación, que evalúa qué contenidos amplifica y compara los resultados con los objetivos declarados o las preferencias de los usuarios. prerregistrada del sistema de recomendación de Twitter (ahora X). Concluyó que el ranking basado en engagement amplifica contenido emocionalmente cargado y hostil hacia el exogrupo, y que este contenido no es lo que los usuarios declaran preferir cuando se les pregunta directamente. El algoritmo optimiza para aquello en lo que haces clic, no para lo que elegirías en un momento de reflexión.

Un estudio separado de 2025 sobre el sistema de recomendación de YouTube encontró que el algoritmo refuerza las emociones negativas, empujando a los usuarios hacia contenido que provoca reacciones impulsivas en lugar de contenido alineado con sus preferencias a largo plazo. Los investigadores enmarcan esto como un conflicto entre el pensamiento del “Sistema 1” (rápido, emocional) y el del “Sistema 2” (deliberado, reflexivo): los algoritmos explotan sistemáticamente el primero a expensas del segundo.

Este es el mecanismo que hace rentable el contenido “límite”. El algoritmo no sabe de qué trata el contenido. Sabe que las publicaciones con ciertos patrones de engagement se hacen clic, se comparten y se comentan más. El contenido que provoca indignación produce esos patrones de forma fiable. El sistema no elige ampliar el daño; elige ampliar el engagement, y el daño se correlaciona fuertemente con el engagement.

Lo que dijeron las empresas

Meta negó ampliar deliberadamente contenido dañino por beneficio económico: “Cualquier sugerencia de que amplificamos deliberadamente contenido dañino por beneficio económico es incorrecta.” TikTok calificó las afirmaciones de “fabricadas” y señaló su inversión en tecnología de seguridad de contenidos.

Estas negaciones merecen un análisis cuidadoso. La declaración de Meta aborda la intención (“deliberadamente”), no los resultados. La alegación de los denunciantes no es que el objetivo declarado de Meta fuera dañar a los usuarios, sino que Meta eligió aceptar más daño como contrapartida de la velocidad competitiva. La negación de TikTok es más amplia, pero no ofrece ninguna refutación específica a los paneles internos mostrados en el documental.

Por qué la carrera armamentista de los algoritmos de redes sociales sigue repitiéndose

El patrón descrito en Inside the Rage Machine no es único. Es un ciclo recurrente en la industria de las redes sociales. Un informe interno de Facebook de 2019 obtenido por Frances Haugen revelaba que partidos políticos europeos sentían que el algoritmo “los obligaba a comunicarse de forma más negativa en Facebook, llevándolos hacia posiciones políticas más extremas”. La estructura de incentivos de la plataforma estaba reconfigurando el comportamiento político, y la empresa lo sabía.

El problema estructural es que la publicidad basada en engagement crea un incentivo financiero directo para maximizar el tiempo en la plataforma, y el contenido emocionalmente provocador es la herramienta más eficiente para lograrlo. Todas las grandes plataformas se enfrentan a este incentivo. La intención real del usuario, lo que realmente buscaste o quisiste ver, queda en segundo plano frente a lo que el algoritmo predice que te mantendrá desplazando la pantalla. Surgen denunciantes, le sigue la indignación pública, las empresas prometen reformas, vuelve la presión competitiva y el ciclo comienza de nuevo.

La aportación del documental a la historia de la carrera armamentista de los algoritmos de redes sociales no es la revelación de que los algoritmos amplifican la indignación. Eso lleva años establecido. Su aportación es la evidencia granular de que Meta y TikTok tomaron decisiones específicas y documentadas para debilitar las protecciones de seguridad durante un período de competencia directa, con empleados identificados por su nombre describiendo las instrucciones que recibieron y los datos internos que mostraban las consecuencias. La frase “la cotización en bolsa ha bajado” no es una abstracción sobre estructuras de incentivos. Es una instrucción documentada de la dirección superior a un ingeniero concreto sobre un cambio de política concreto.

La pregunta es si las pruebas de esta carrera armamentista de los algoritmos de redes sociales se traducen en responsabilidad. Los esfuerzos legislativos para regular el impacto de las redes sociales en los jóvenes se están extendiendo por varios países, pero los mecanismos de aplicación siguen siendo débiles y la capacidad de lobbying de las plataformas sigue siendo poderosa. Meta ha demostrado su capacidad para moldear la misma legislación destinada a regularla. Los denunciantes han aportado las pruebas. Que alguna institución actúe en consecuencia sigue siendo una pregunta abierta.

Lo que revelaron los denunciantes

El documental, producido por Marianna Spring, corresponsal de la BBC especializada en investigaciones sobre redes sociales, reúne testimonios de personas con acceso privilegiado en ambas empresas. Las revelaciones se dividen en dos categorías diferenciadas: la relajación deliberada por parte de Meta de los estándares de seguridad de contenido durante el lanzamiento de Reels, y el sistema interno de priorización de casos de TikTok que depriorizaba sistemáticamente los informes de protección infantil.

Meta: el déficit de seguridad de Reels

Matt Motyl, investigador sénior en Meta de 2019 a 2023, declaró a la BBC que realizó “experimentos a gran escala con a veces cientos de millones de personas” para probar cómo se clasificaba el contenido en los feeds. Su relato del lanzamiento de Instagram Reels en 2020 es preciso: el producto se lanzó sin infraestructura de seguridad suficiente, y las métricas internas confirmaron las consecuencias. Los comentarios en Reels mostraban una prevalencia de intimidación y acoso un 75 por ciento mayor, un 19 por ciento más de discurso de odio y un 7 por ciento más de violencia e incitación en comparación con el resto de Instagram.

Estas cifras importan porque cuantifican la brecha de seguridad entre un producto lanzado con revisión adecuada y uno lanzado con precipitación competitiva. Reels era la respuesta directa de Meta al crecimiento explosivo de TikTok en vídeo corto. La diferencia del 75 por ciento en acoso no es un aumento marginal; sugiere un entorno de moderación fundamentalmente diferente, probablemente porque el sistema de recomendación de contenido de Reels fue optimizado para la velocidad de engagement sin una inversión proporcional en modelos de clasificación de contenido entrenados sobre los patrones de abuso específicos que genera el vídeo corto.

Un ingeniero de Meta identificado como “Tim” describió que la dirección superior le ordenó permitir más contenido “límite” dañino en los feeds de los usuarios. El contenido “límite”, en la taxonomía interna de Meta, designa material que cae por debajo del umbral de aplicación de los estándares comunitarios pero que aun así desencadena respuestas emocionales de alta activación: teorías conspirativas, encuadres misóginos, contenido político inflamatorio. La instrucción, según Tim, se planteó en términos de necesidad competitiva: “Nos dijeron más o menos que era porque la cotización en bolsa había bajado.”

La asignación de personal cuenta una historia paralela. Meta destinó 700 empleados al crecimiento de Reels. Los equipos de seguridad solicitaron dos especialistas para la protección infantil y diez para la integridad electoral. Ambas solicitudes fueron denegadas. No es una restricción presupuestaria; es una preferencia revelada. La proporción (700 frente a 0) comunica la prioridad organizativa con más claridad que cualquier declaración de misión.

TikTok: la inversión de prioridades en confianza y seguridadDepartamento dentro de las empresas tecnológicas encargado de aplicar las normas de la plataforma, revisar denuncias de contenido dañino y proteger a los usuarios frente a abusos e infracciones.

Un miembro del equipo de confianza y seguridad identificado como “Nick”, que monitorizó los sistemas internos de TikTok durante varios meses en 2025, facilitó a la BBC acceso a paneles internos que mostraban la lógica de priorización de casos de la empresa. El sistema asignaba puntuaciones de prioridad más altas a los casos que involucraban a figuras políticas que a los que implicaban daños a menores.

El ejemplo concreto citado: un caso en el que una figura política era objeto de burlas por comparación con un pollo recibió mayor prioridad que un joven de 17 años que denunciaba ciberacoso y una chica iraquí de 16 años que denunciaba extorsión sexual. Es una inversión de prioridades en el sentido clásico de la ingeniería de software: un caso de baja gravedad se procesa antes que casos de alta gravedad porque la función de prioridad pondera la variable equivocada (sensibilidad política en lugar de gravedad del daño).

Ruofan Ding, ingeniero de aprendizaje automático que trabajó en el motor de recomendación de TikTok de 2020 a 2024, describió el sistema como una opaca “caja negra” con controlabilidad limitada. Esto es coherente con la arquitectura de los sistemas de recomendación a gran escala: redes neuronales profundas con miles de millones de parámetros, entrenadas con señales de retroalimentación implícitas, cuyas representaciones internas no son directamente interpretables ni siquiera por sus diseñadores. El sistema aprende asociaciones estadísticas entre las características del contenido y los resultados de engagement. No modela el daño, el bienestar ni la preferencia del usuario de ninguna manera semánticamente significativa.

Los mecanismos técnicos de la amplificación del engagement

Para entender por qué el contenido límiteContenido que se sitúa justo por debajo del umbral de infracción de normas de una plataforma, pero diseñado para provocar reacciones emocionales intensas como la indignación, haciéndolo muy eficaz para generar engagement. es rentable, hay que entender qué optimiza realmente un algoritmo de recomendación. Los sistemas modernos de ranking de feeds (los de Meta, TikTok, YouTube, X) se entrenan con señales de engagement: clics, tiempo de visualización, me gusta, comentarios, comparticiones y, en algunos casos, señales de engagement negativo como denuncias (aunque estas suelen ponderarse a la baja en lugar de tratarse como descalificadoras).

El objetivo de entrenamiento es típicamente una combinación ponderada de estas señales, estructurada como un problema de aprendizaje multitarea. El modelo predice, para cada pieza de contenido candidata, la probabilidad de que un usuario determinado interactúe con ella de cada una de estas formas. Las puntuaciones de engagement previstas se combinan (con ponderación de lógica de negocio) en una única puntuación de ranking. El contenido con el mayor engagement previsto aparece primero en el feed.

El problema es que el engagement no es un indicador de valor. Es un indicador de activación. El contenido que provoca rabia, miedo, indignación moral o identificación tribal genera alto engagement porque activa procesos cognitivos rápidos y automáticos (lo que los economistas conductuales denominan Sistema 1). El contenido que informa, contextualiza o requiere reflexión genera menos engagement porque activa un procesamiento más lento y deliberado (Sistema 2). El algoritmo no puede distinguir entre estos modos. Ve engagement. Amplifica engagement. El comportamiento emergenteComportamiento que surge en un sistema complejo sin haber sido diseñado en ninguno de sus componentes individuales. El conjunto produce resultados que ninguna parte por sí sola podría generar — la evolución, los atascos y las crisis financieras son ejemplos. es la amplificación del contenido de alta activación.

Una auditoría algorítmicaExamen estructurado del comportamiento real de un algoritmo de recomendación, que evalúa qué contenidos amplifica y compara los resultados con los objetivos declarados o las preferencias de los usuarios. prerregistrada publicada en 2025 en PNAS Nexus, “Engagement, User Satisfaction, and the Amplification of Divisive Content on Social Media“, puso esto a prueba directamente en Twitter/X. El estudio encontró que el ranking basado en engagement amplifica contenido emocionalmente cargado y hostil hacia el exogrupo. De manera crucial, cuando se encuestó a los usuarios sobre si preferían el feed clasificado algorítmicamente o uno en orden cronológico inverso, prefirieron este último para el contenido político. El algoritmo estaba optimizando para algo que los usuarios no querían realmente cuando se les daba una elección reflexiva.

Un estudio separado de 2025 sobre YouTube encontró que su sistema de recomendación refuerza los estados emocionales negativos, lo que sugiere que optimizar las métricas de engagementIndicadores medibles de interacción del usuario—clics, tiempo dedicado, desplazamientos—que las plataformas optimizan como sustituto de la satisfacción, aunque a menudo recompensen comportamiento compulsivo en lugar de satisfacción intencional. produce un bucle de retroalimentación: al usuario se le muestra contenido que desencadena una respuesta emocional negativa, el estado negativo aumenta la probabilidad de mayor engagement (el doom-scrolling es un comportamiento bien documentado), y el algoritmo interpreta el engagement continuado como señal positiva, sirviendo más del mismo tipo de contenido.

El contenido límite como objetivo de optimización

El contenido límite es particularmente valioso para los sistemas optimizados para el engagement porque ocupa un punto dulce: lo suficientemente provocador para generar alto engagement, pero no tan extremo como para activar umbrales de denuncia que llevarían a su eliminación. En el marco de moderación de contenidos de Meta, el contenido se clasifica en un espectro. El material que viola claramente los estándares comunitarios se elimina. El material que cae por debajo del umbral de infracción pero sigue generando preocupación es “límite”. La propia investigación interna de Meta, revelada por Frances Haugen en 2021, mostraba que este contenido límite era desproporcionadamente eficaz para generar engagement.

La instrucción de permitir más contenido límite, según lo descrito por Tim, es por tanto una instrucción de ampliar la zona óptima de engagement. Al elevar el umbral a partir del cual el contenido se degrada o elimina, el algoritmo accede a un mayor conjunto de material de alto engagement. El coste lo soportan los usuarios, en forma de mayor exposición a teorías conspirativas, misoginia y contenido inflamatorio. El beneficio revierte en la plataforma, en forma de mayor tiempo de permanencia e ingresos publicitarios.

La carrera armamentista de los algoritmos de redes sociales: dinámicas competitivas

Las revelaciones de Haugen en 2021 establecieron que Facebook sabía que su algoritmo amplificaba el contenido divisivo. Un informe interno de 2019 obtenido por Haugen reveló que partidos políticos europeos sentían que el algoritmo “los obligaba a comunicarse de forma más negativa en Facebook, llevándolos hacia posiciones políticas más extremas”. Los incentivos de engagement de la plataforma estaban reconfigurando el comportamiento político real.

Lo que Inside the Rage Machine añade, cinco años después, es la evidencia de que el problema se intensificó bajo la presión competitiva de TikTok. El motor de recomendación de TikTok, construido sobre la infraestructura de comprensión de contenidos de ByteDance, resultó excepcionalmente eficaz para captar la atención de los usuarios. Su página “Para ti”, que sirve contenido de cuentas que el usuario no sigue basándose únicamente en predicciones algorítmicas, estableció un nuevo estándar de engagement por sesión. La respuesta de Meta fue replicar el formato (Reels) y igualar la intensidad del engagement. Los denunciantes describen esto como una carrera en la que la seguridad fue la variable sacrificada.

La carrera armamentista de los algoritmos de redes sociales es un problema clásico de acción colectiva. Cualquier plataforma individual que invierta unilateralmente en seguridad a costa del engagement arriesga perder usuarios a favor de competidores que no lo hagan. La estrategia racional, en ausencia de regulación, es igualarse al mínimo común denominador. La eficiencia algorítmica de TikTok obligó a Meta a competir en intensidad de engagement, y la palanca más fácil de accionar fue relajar el umbral del contenido límite.

La anulación sistemática de la intención del usuario por parte de los algoritmos de las plataformas es un patrón bien documentado en toda la industria. Lo que los usuarios buscan, lo que dicen querer y lo que el algoritmo les sirve son cada vez más divergentes. El modelo de ingresos publicitarios de las plataformas depende de esta divergencia: servir a los usuarios lo que maximiza el engagement (y por tanto las impresiones publicitarias) en lugar de lo que los usuarios elegirían para sí mismos.

Las respuestas de las empresas y lo que realmente significan

La negación de Meta: “Cualquier sugerencia de que amplificamos deliberadamente contenido dañino por beneficio económico es incorrecta.” Esta formulación es cuidadosa. Aborda la intención (“deliberadamente”), no los resultados. La alegación de los denunciantes no es que el consejo de administración de Meta se reuniera y decidiera dañar a los usuarios. Es que Meta tomó una serie de decisiones de asignación de recursos y de política que aumentaron de manera previsible la exposición de los usuarios a contenido dañino, y que estas decisiones estuvieron motivadas por presiones competitivas y financieras. Si “deliberadamente” cubre “aceptar conscientemente un daño previsible como efecto secundario de una estrategia competitiva” es una cuestión jurídica y semántica, no empírica.

TikTok calificó las afirmaciones de “fabricadas” y señaló su inversión en tecnología de seguridad de contenidos. Es una negación más amplia pero igualmente inespecífica. La inversión en tecnología de seguridad no es incompatible con deprioritizar simultáneamente los casos de protección infantil frente a los políticos. Una empresa puede gastar millones en moderación de contenidos basada en IA mientras instruye a sus revisores humanos para que prioricen la sensibilidad política. Los paneles internos mostrados en el documental son genuinos o no lo son. La declaración de TikTok no los aborda específicamente.

Qué haría falta para resolver esto de verdad

El problema estructural es que la publicidad basada en engagement crea un incentivo financiero directo para maximizar la activación, y las plataformas han demostrado, repetidamente, que la autorregulación fracasa bajo presión competitiva. Se han propuesto varios enfoques:

Requisitos de transparencia algorítmica. Obligar a las plataformas a revelar los objetivos que optimizan sus sistemas de recomendación y a publicar auditorías regulares de los resultados en la distribución de contenidos. El Reglamento de Servicios Digitales (DSA) de la UE incluye algunas disposiciones en esta dirección, pero la aplicación está en sus primeras fases.

Ranking controlado por el usuario. Dar a los usuarios la posibilidad de elegir su propio algoritmo de clasificación (cronológico, basado en engagement, filtrado por tema) en lugar de estar bloqueados en el predeterminado por la plataforma. Algunos investigadores han propuesto marcos de “mejores feeds” que optimizan la satisfacción del usuario a largo plazo en lugar del engagement a corto plazo.

Responsabilidad por la amplificación algorítmicaPromoción algorítmica de contenido más allá del alcance orgánico, independiente de la relevancia o intención del usuario. Las plataformas la utilizan para maximizar métricas de engagement sin importar lo que solicitan los usuarios.. Extender la responsabilidad de las plataformas para cubrir no solo el contenido alojado, sino también la decisión algorítmica de amplificar contenido específico a usuarios específicos. Es la propuesta más controvertida porque desafía el marco de la Sección 230 en EE. UU. y disposiciones equivalentes de puerto seguro en otros países.

Desacoplar los ingresos del engagement. El cambio más fundamental pero menos probable: modelos de suscripción, financiación de interés público o estructuras publicitarias que no recompensen la captación de atención. Mientras los ingresos escalen con el engagement, el incentivo para amplificar la activación persistirá.

Los esfuerzos legislativos para proteger a los usuarios jóvenes se multiplican a escala mundial, pero la brecha de aplicación sigue siendo significativa. Y Meta ha demostrado su capacidad para moldear la misma legislación destinada a regularla, financiando grupos de presión y redactando proyectos de ley modelo que eximen sus propios productos.

Los denunciantes de Inside the Rage Machine han aportado la evidencia más granular hasta la fecha de que la disyuntiva “engagement antes que seguridad” no es un subproducto accidental de sistemas complejos. Es una decisión empresarial documentada, tomada por personas identificadas con nombre y apellido, en empresas específicas, por razones financieras explícitamente declaradas. La pregunta, como siempre, es qué sucede a continuación.

¿Qué le pareció este artículo?
Compartir este artículo

¿Un error? Avísanos

Fuentes