Um desafio do TikTok é essencialmente uma chamada para realizar algum tipo de ação, gravá-la e compartilhá-la no TikTok com uma hashtag fácil de encontrar.
Existem vários desafios do TikTok acontecendo a qualquer momento e a maioria deles é inofensiva. No entanto, como em toda experiência online, há riscos envolvidos, especialmente para os jovens.
O “Blackout Challenge” supostamente levou à morte de várias crianças, resultando em um processo contra o TikTok. Eis porque importa…
TikTok é processado por “Blackout Challenge”
O Blackout Challenge, também conhecido como “desafio de asfixia” ou “desafio de desmaio”, exige que os participantes prendam a respiração até desmaiar.
O desafio supostamente levou à morte de várias crianças, incluindo Lalani Erika Walton, de oito anos, do Texas, e Arriani Jaileen Arroyo, de nove anos, de Wisconsin.
O Social Media Victims Law Center (SMVLC), divulgou um comunicado sobre as mortes e o arquivamento do processo de homicídio culposo. O Centro processou o TikTok, entrando com a ação no Tribunal Superior da Califórnia pelas mortes injustas de Lalani e Arriani em nome de seus pais.
Por que o TikTok está sendo processado?
De acordo com o processo, o algoritmo do TikTok desempenhou um papel na introdução das crianças ao desafio.
A ação judicial afirma:
O perigoso algoritmo do TikTok intencionalmente e repetidamente empurrou o mortal “Blackout Challenge” para Lalani e Arriani’s TikTok ‘For You Page’, incentivando-os a participar do desafio que acabou tirando suas vidas.
A ação alega ainda que:
O design defeituoso do TikTok de seu produto de mídia social resulta em um produto viciante que não é seguro para os usuários e não alerta os menores e seus pais de que o TikTok é viciante e envia conteúdo prejudicial à sua página ‘Para você’ que pode colocar em risco seu bem-estar.
“O TikTok precisa ser responsabilizado por enviar conteúdo mortal para essas duas jovens”, observou Matthew P. Bergman, advogado fundador da SMVLC.
Impacto potencial do terno TikTok
A SMVLC está promovendo a ideia de que as plataformas de mídia social são produtos e seus proprietários são responsáveis pelos produtos que criam. Embora a responsabilidade do produto historicamente se refira a coisas físicas, a SMVLC está apostando que o princípio também pode ser aplicado às mídias sociais.
Se os tribunais concordarem, as empresas de mídia social seriam forçadas a redesenhar suas plataformas para proteger os usuários de lesões ou danos previsíveis.
Isso forçaria o TikTok (assim como outros aplicativos) a mudar radicalmente o funcionamento de seus algoritmos. Isso seria potencialmente uma ameaça existencial ao TikTok, já que seu algoritmo exclusivo o tornou um dos aplicativos de mídia social mais populares do mundo.
Uma vitória para o SMVLC também pode fazer com que os aplicativos de mídia social alterem seus termos de serviço de uma maneira que reduza a responsabilidade de seus criadores de conteúdo em uma tentativa de evitar futuros processos judiciais.
O TikTok é responsável?
A Seção 230 da Lei de Decência nas Comunicações dos EUA protegeu as empresas de internet de qualquer responsabilidade legal pelo conteúdo postado em suas plataformas desde 1996. Isso permitiu que a internet prosperasse.
É por isso que a busca da SMVLC pela rota de responsabilidade do produto é particularmente inteligente. Uma abordagem de responsabilidade do produto pode permitir que os tribunais responsabilizem o TikTok sem violar a Seção 230, que é uma proteção legal de liberdade de expressão específica para a Internet.
O TikTok não é a primeira empresa de mídia social a ser processada por mortes injustas. Em 2021, o Snapchat foi processado por seu filtro de velocidade.
Embora o Snapchat tenha removido o filtro de velocidade, os críticos dizem que ele incentivou a condução imprudente dos usuários e causou vários acidentes e ferimentos.
Esta não é a primeira tragédia em que as empresas de mídia social são criticadas por seu papel. Mas somente a decisão determinará onde está a responsabilidade legal.
Independentemente do resultado do processo, podemos ver mais aplicativos alterarem suas políticas para levar em conta os riscos associados ao produto.