Meta recopiló datos de niños de cuentas de Instagram, alega un documento judicial sin sellar.

CNN  —  Since at least 2019, Meta has knowingly refused to shut down the majority of accounts belonging to children under the age of 13 while collecting their personal information without their parents’ consent, a newly unsealed court document from an ongoing federal lawsuit against the social media giant alleges. Attorneys general from 33 states have accused Meta of receiving more than a million reports of under-13 users on Instagram from parents, friends and online community members between early 2019 and mid-2023. However, “Meta disabled only a fraction of those accounts,” the complaint states. The federal complaint calls for court orders prohibiting Meta from the practices the attorneys general allege violate the law. Civil penalties could add up to hundreds of millions of dollars, as Meta allegedly hosts millions of users who are teens and children. Most states are seeking anywhere between $1,000 to $50,000 in fines per violation. According to the 54-count lawsuit, Meta violated a range of state-based consumer protection statutes as well as the Children’s Online Privacy Protection Rule (COPPA), which prohibits companies from collecting the personal information of children under 13 without a parent’s consent. Meta allegedly did not comply with COPPA with respect to both Facebook and Instagram, even though “Meta’s own records reveal that Instagram’s audience composition includes millions of children under the age of 13,” and that “hundreds of thousands of teen users spend more than five hours a day on Instagram,” the court document states. One Meta product designer wrote in an internal email that the “young ones are the best ones,” adding that “you want to bring people to your service young and early,” according to the lawsuit. “Instagram’s Terms of Use prohibit users under the age of 13 (or higher in certain countries) and we have measures in place to remove these accounts when we identify them. However, verifying the age of people online is a complex industry challenge,” Meta told CNN in a statement on Sunday. “Many people – particularly those under the age of 13 – don’t have an ID, for example. That’s why Meta is supporting federal legislation that requires app stores to get parents’ approval whenever their teens under 16 download apps. With this approach, parents and teens won’t need to provide hundreds of individual apps with sensitive information like government IDs in order to verify their age.” The unsealed complaint also alleges that Meta knew that its algorithm could steer children toward harmful content, thereby harming their well-being. According to internal company communications cited in the document, employees wrote that they were concerned about “content on IG triggering negative emotions among tweens and impacting their mental well-being (and) our ranking algorithms taking [them] into negative spirals & feedback loops that are hard to exit from.” For example, Meta researchers conducted one study in July 2021 that concluded Instagram’s algorithm may be amplifying negative social comparison and “content with a tendency to cause users to feel worse about their body or appearance,” according to the complaint. In internal emails from February 2021 cited in the lawsuit, Meta employees allegedly recognized that social comparison was “associated with greater time spent” on Meta’s social media platforms and discussed how this phenomenon is “valuable to Instagram’s business model while simultaneously causing harm to teen girls.” In a March 2021 internal investigation looking at eating disorder content, Meta’s team followed users whose account names referenced starvation, skinniness and disordered eating. Instagram’s algorithm then began generating a list of recommended accounts “that included accounts related to anorexia,” the lawsuit states. However, Antigone Davis, Meta’s global head of safety, testified before Congress in September 2021 that Meta does not “direct people towards content that promotes eating disorders. That actually violates our policies and we remove that content when we become aware of it. We actually use AI to find content like that and to remove it.” “We want teens to have safe, age-appropriate experiences online, and we have over 30 tools to support them and their parents,” Meta told CNN in a statement. “We’ve spent a decade working on these issues and hiring people who have dedicated their careers to keeping young people safe and supported online. The complaint mischaracterizes our work using selective quotes and cherry-picked documents.” Senior leadership at Instagram also knew that problematic content was a critical issue for the platform, the lawsuit states. Adam Mosseri, the head of Instagram, allegedly wrote in an internal email that “social comparison is to Instagram [what] election interference is to Facebook.” The lawsuit does not specify when that email was sent. CNN has reached out to Meta regarding Davis’s and Mosseri’s comments and did not immediately receive a response. However, despite the company’s internal research confirming concerns with social comparison on its platforms, the lawsuit alleges Meta refused to change its algorithm. One employee noted in internal communications cited in the lawsuit that content inciting negative appearance comparisons “is some of the most engaging content (on the Explore page), so this idea actively goes against many other teams’ top-line measures.” Meanwhile, “Meta’s external communications denied or obscured the fact that its Recommendation Algorithms promote High-Negative Appearance Comparison content to young users,” the lawsuit states. Meta was also aware that its recommendations algorithms “trigger intermittent dopamine releases in young users” which can lead to addictive cycles of consumption on its platforms, according to internal documents cited in the lawsuit. “Meta has profited from children’s pain by intentionally designing its platforms with manipulative features that make children addicted to their platforms while lowering their self-esteem,” said Letitia James, the attorney general for New York, in a statement last month. New York is one of the states involved in the federal suit. “Social media companies, including Meta, have contributed to a national youth mental health crisis and they must be held accountable,” James said. Eight additional attorneys general sued Meta last month in various state courts, making similar claims to the massive multistate federal lawsuit. Florida sued Meta in its own separate federal lawsuit, alleging the company misled users about potential health risks of its products. The wave of lawsuits is the result of a bipartisan, multistate investigation dating back to 2021, after Facebook whistleblower Frances Haugen came forward with tens of thousands of internal company documents that she said showed how the company knew its products could have negative impacts on young people’s mental health. CNN’s Brian Fung contributed to this reporting

LEAR  Japón amplía los centros de cuidado diurno gratuitos a todos los niños.

CNN  —  Desde al menos 2019, Meta ha rehusado conscientemente a cerrar la mayoría de cuentas pertenecientes a menores de 13 años mientras recopila su información personal sin el consentimiento de sus padres, alega un nuevo documento judicial desclasificado de una demanda federal en curso contra el gigante de las redes sociales. Los fiscales generales de 33 estados han acusado a Meta de recibir más de un millón de informes de usuarios menores de 13 años en Instagram por parte de padres, amigos y miembros de la comunidad en línea entre principios de 2019 y mediados de 2023. Sin embargo, “Meta deshabilitó solo una fracción de esas cuentas”, afirma la denuncia. La denuncia federal solicita órdenes judiciales que prohíban a Meta las prácticas que los fiscales generales alegan violan la ley. Las multas civiles podrían aumentar a cientos de millones de dólares, ya que Meta presuntamente aloja a millones de usuarios que son adolescentes y niños. La mayoría de los estados buscan multas de entre $1,000 a $50,000 por violación. Según la demanda de 54 cargos, Meta violó una serie de estatutos estatales de protección al consumidor, así como la Regla de Protección de la Privacidad en Línea de los Niños (COPPA), que prohíbe a las empresas recopilar información personal de menores de 13 años sin el consentimiento de los padres. Meta presuntamente no cumplió con COPPA con respecto a Facebook e Instagram, a pesar de que “los propios registros de Meta revelan que la composición del público de Instagram incluye a millones de menores de 13 años”, y que “cientos de miles de usuarios adolescentes pasan más de cinco horas al día en Instagram”, afirma el documento judicial. Un diseñador de productos de Meta escribió en un correo electrónico interno que “los pequeños son los mejores”, y agregó que “quieres traer gente a tu servicio cuando son jóvenes y temprano”, según la demanda. “Los Términos de Uso de Instagram prohíben a los usuarios menores de 13 años (o más en ciertos países) y tenemos medidas para eliminar estas cuentas cuando las identificamos. Sin embargo, verificar la edad de las personas en línea es un desafío complejo de la industria”, dijo Meta a CNN en un comunicado el domingo. “Muchas personas, especialmente aquellas menores de 13 años, no tienen una identificación, por ejemplo. Es por eso que Meta apoya legislación federal que requiere que las tiendas de aplicaciones obtengan la aprobación de los padres cada vez que sus adolescentes menores de 16 años descargan aplicaciones. Con este enfoque, los padres y adolescentes no necesitarán proporcionar a cientos de aplicaciones individuales información sensible como identificaciones gubernamentales para verificar su edad”. La denuncia desclasificada también alega que Meta sabía que su algoritmo podía dirigir a los niños hacia contenido dañino, perjudicando así su bienestar. Según comunicaciones internas de la compañía citadas en el documento, los empleados escribieron que estaban preocupados por el “contenido en IG que desencadena emociones negativas entre preadolescentes y afecta su bienestar mental (y) nuestros algoritmos de clasificación los meten en espirales y bucles de retroalimentación negativos de los que es difícil salir”. Por ejemplo, los investigadores de Meta realizaron un estudio en julio de 2021 que concluyó que el algoritmo de Instagram puede estar amplificando la comparación social negativa y el “contenido con tendencia a hacer que los usuarios se sientan peor acerca de sus cuerpos o apariencia”, según la denuncia. En correos electrónicos internos de febrero de 2021 citados en la demanda, los empleados de Meta presuntamente reconocieron que la comparación social estaba “asociada con mayor tiempo gastado” en las plataformas de redes sociales de Meta y discutieron cómo este fenómeno es “valioso para el modelo de negocio de Instagram, al tiempo que causa daño a las adolescentes”. En una investigación interna de marzo de 2021 sobre el contenido de trastornos alimentarios, el equipo de Meta siguió a usuarios cuyos nombres de cuenta hacían referencia a la inanición, la delgadez y los trastornos alimentarios. Luego, el algoritmo de Instagram comenzó a generar una lista de cuentas recomendadas “que incluía cuentas relacionadas con la anorexia”, afirma la denuncia. Sin embargo, Antigona Davis, jefa global de seguridad de Meta, testificó ante el Congreso en septiembre de 2021 que Meta no “dirige a las personas hacia contenido que promueva trastornos alimentarios. Eso viola nuestras políticas y eliminamos ese contenido cuando tenemos conocimiento de ello. De hecho, usamos IA para encontrar contenido así y eliminarlo”. “Queremos que los adolescentes tengan experiencias seguras y apropiadas para su edad en línea, y tenemos más de 30 herramientas para apoyarlos a ellos y a sus padres”, Meta dijo a CNN en un comunicado. “Hemos pasado una década trabajando en estos problemas y contratando a personas que han dedicado sus carreras a mantener seguros y apoyar a los jóvenes en línea. La denuncia tergiversa nuestro trabajo utilizando citas selectivas y documentos escogidos”. El liderazgo principal de Instagram también sabía que el contenido problemático era un problema crítico para la plataforma, alega la demanda. Adam Mosseri, el jefe de Instagram, presuntamente escribió en un correo electrónico interno que “la comparación social es para Instagram [lo que] la interferencia electoral es para Facebook”. La demanda no especifica cuándo se envió ese correo electrónico. CNN se ha comunicado con Meta con respecto a los comentarios de Davis y Mosseri y no ha recibido una respuesta de inmediato. Sin embargo, a pesar de la investigación interna de la empresa que confirmaba las preocupaciones con la comparación social en sus plataformas, la demanda alega que Meta se negó a cambiar su algoritmo. Un empleado señaló en comunicaciones internas citadas en la demanda que el contenido que incita comparaciones negativas de aspecto “es alguno de los contenidos más atractivos (en la página Explorar), de modo que esta idea va en contra de las medidas principales de muchos otros equipos”. Mientras tanto, “las comunicaciones externas de Meta negaron u ocultaron el hecho de que sus algoritmos de recomendación promueven contenido de alta comparación negativa de aspecto a jóvenes usuarios”, afirma la demanda. Meta también sabía que sus algoritmos de recomendación “desencadenan liberaciones intermitentes de dopamina en jóvenes usuarios”, lo que puede llevar a ciclos adictivos de consumo en sus plataformas, según documentos internos citados en la demanda. “Meta se ha lucrado del dolor de los niños al diseñar intencionalmente sus plataformas con características manipuladoras que hacen que los niños se vuelvan adictos a sus plataformas mientras que disminuyen su autoestima”, dijo Letitia James, la fiscal general de Nueva York, en un comunicado el mes pasado. Nueva York es uno de los estados involucrados en la demanda federal. “Las empresas de redes sociales, incluida Meta, han contribuido a una crisis nacional de salud mental juvenil y deben ser responsabilizadas”, dijo James. Ocho fiscales generales adicionales demandaron a Meta el mes pasado en varios juzgados estatales, haciendo afirmaciones similares a la masiva demanda federal de múltiples estados. Florida demandó a Meta en su propia demanda federal separada, alegando que la empresa engañó a los usuarios sobre los posibles riesgos para la salud de sus productos. La ola de demandas es el resultado de una investigación bipartidista y multistatal que data de 2021, después de que la denunciante de Facebook Frances Haugen saliera con decenas de miles de documentos internos de la compañía que, según ella, mostraban cómo la compañía sabía que sus productos podrían tener impactos negativos en la salud mental de los jóvenes. Brian Fung de CNN contribuyó a este informe

LEAR  Procesamiento de datos metabolómicos: de datos brutos a conocimientos biológicos