PL “anti-fake news” ainda tem falhas perigosas

maio 31, 2020 | Notícias | 0 Comentários

Projeto de Lei anti-carluxo proposto por Tabata Amaral e Felipe Rigoni chega na versão 2.0

por Wesley Safo

Leia a análise da versão 1.0 do projeto de lei aqui.

Nessa última semana, além do Presidente soltando bravatas pela centésima vez que “tinha chegado no seu limite e que ia tomar uma atitude”, na sua velha postura morde-e-assopra que ninguém aguenta mais, repercutiu a enquete no site do Senado sobre a lei anti-“fake news”, relativa à votação do PL 2.630/2020, proposta pelo Senador Alessandro Vieira (Cidadania-SE), que, por sua vez é uma versão modificada do PL 1429/2020,  proposto originalmente na câmara dos deputados pelos deputados Tabata Amaral (PDT-SP) e Felipe Rigoni (PSB-ES) com o nome “Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet”, vulgo “lei-anti-carluxo“.

No entanto, apesar de sua votação estar marcada para a próxima semana e ter sido alvo de um verdadeiro Fla x Flu entre aqueles que são contra e a favor da atual campanha de ódio e difamação disseminada pelos partidários do presidente, o projeto apresenta uma série de problemas que, na prática, criam uma série de regras que podem atentar contra a liberdade de expressão. Como comentaram diversas instituições como Instituto IP.rec, Coding Rights, Intervozes, Iris, Internetlab, Direitos na rede.

Exatamente por isso, apelamos para aqueles que no afã de se posicionar contra a estupidez do bolsonarismo, assim como nós PIRATAS que já nos posicionamos contra o Bolsonaro desde o primeiro turno das eleições de 2018, que não apoiem qualquer projeto apenas porque ele se intitula como “anti-fake news”, pois isso pode acabar resultando em um tiro pela culatra que termine limitando severamente a atual liberdade de expressão que ainda temos e tanto prezamos na Internet

Pois bem, como parte dessa competição desenfreada entre Câmara dos Deputados e Senado pra ver quem toma o protagonismo contra as “fake news” (termo bastante problemático, por envolver muito mais a prática de difamação do que propriamente conteúdo falso em si), no último dia 26 de maio, a Tabata Amaral (PDT-SP) e Felipe Rigoni (PSB-ES) pediram o arquivamento do antigo PL 1429/2020 e protocolaram o novo PL 2927/2020 ou “lei anti-carluxo 2.0”.

Embora o projeto também tenha incorporado diversas das modificações do projeto propostas pelo Senado, o fato de terem sido propostos pelos mesmos autores facilita uma comparação entre os dois projetos.

 

Analise geral sobre o teor do projeto

Em uma análise mais ampla, diversos dos problemas mais polêmicos que havíamos apontado no nosso texto anterior foram removidos, como a quebra de sigilo/criptografia do Whatsapp, a importância exagerada dada à opinião de agências de verificação independentes e órgãos públicos para distinguir o que é falso, além da obrigação de monitorar qualquer conteúdo com mais 5 mil visualizações, o que, na prática, implicaria em um monitoramento de todo o conteúdo produzido por páginas de porte médio.

No entanto, o projeto ainda apresenta uma série de problemas, como priorizar as práticas estabelecidas pelas líderes do mercado de Internet – como na limitação de número de pessoas em um grupo de mensagens para exatas 256 pessoas, número praticado pelo Whatsapp em detrimento do Telegram – e ainda inclui termos muito vagos, que abrem muito espaço para interpretação como “contas inautênticas” e as “redes de disseminação artificial”.

Como apontou o texto da Coalizão para Direitos na Rede, o conceito de conta inautêntica deveria ser removido e o de “rede de disseminação” reformulado. A manutenção dos atuais termos pode levar as empresas de internet a criarem meios de classificação automática de conteúdo que podem limitar a liberdade de expressão, de maneira semelhante ao que ocorreu após a aprovação do artigo 13 na União Europeia.

Por outro lado, essa nova versão do projeto passa a considerar a verificação de conteúdo por agencias de verificação como “boas práticas”, reduzindo o número de medidas que implicam em sanção para empresas de internet, o que é positivo. Além disso, ele permite que os usuários tenham um canal de contestação do conteúdo removido.

Ainda assim, é importante destacar também que embora o projeto fale em considerar os princípios e garantias do Marco Civil da Internet, o próprio Marco Civil da Internet impede que provedores de conteúdo sejam responsabilizados pelas postagens dos seus usuários. Assim, as sanções previstas no projeto, que passam da advertência, para multa e culminando na “proibição de exercício das atividades no país” implicam em uma reversão completa do espírito das garantias propostas no Marco Civil da Internet.

Em função disso, reconhecendo o papel de órgão técnico a quem compete a elaboração de recomendações a respeito de políticas de Internet no Brasil, conferido ao CGI.br pelo Marco Civil da Internet, entendemos que o papel de coordenador do processo de elaboração e assinatura dos respectivos códigos de conduta e boas práticas, em diálogo com os atores envolvidos nas medidas, deveria ser conferido ao Comitê Gestor da Internet.

Por fim, as medidas que ampliam as informações sobre publicidade online, em especial que permitem saber por quê um determinado usuário foi selecionado para assistir aquela propaganda e quais foram as propagandas que um determinado anunciante financiou são especialmente positivas, vide que existem diversas propagandas do youtube feitas com objetivo eleitoral/político que são usadas de maneira abusiva por hoje não deixarem rastros.

 

Resumo das principais modificações

Abaixo, um resumo das principais modificações do projeto, seguido por uma comparação mais detalhada entre as duas versões:

1) O limite de aplicação da lei deixou de ser faturamento para número de usuários cadastrados

2) A lei deixou de ser considerada “boa prática” para aquelas empresas a quem ela não se aplica e passou a se extender pra provedores de aplicações no exterior

3) Foi alterado o conceito de desinformação com a exclusão de finalidade e feita a exceção à paródia

4) Conta inautêntica deixou de considerar aquela que “deturpa intencionalmente conteúdo”

5) o conceito de Bot ou robô foi substituido por “disseminador artificial” e passou a focar em “conteúdo”

6) Foram excluídos o conceito de alcance significativo anúncio online, propaganda política, algoritmo de visualização e incluídos rede social e serviço de mensageria privada

7) Foi ampliado o conceito de uso legítimo, para livre manifestação artística, mas foi restringido de maneira ambígua o conceito de uso “imagens manipuladas”

8) Os relatórios passaram a dar menos peso para verificadores de fatos independentes e órgãos oficiais e passaram a pedir dados mais detalhados de um ponto de vista demográfico,

9) É mantido e ampliado que os relatórios devem permitir identificar as redes produtoras de desinformação, incluindo através de conteúdo patrocinado.

10) As medidas proativas para proteção contra desinformação se tornaram mais transparentes

11) o tempo máximo de envio de conteúdo agências de verificação e justificativas foi retirado.

12) A remoção e posterior notificação de conteúdo falso deixam de ser obrigatórias e passam a ser consideradas”boas práticas”. O aviso a quem compartilhou informação falsa é ressaltado.

13) Deixa de existir a obrigação um mecanismo para DENUNCIAR informação falsa para empresas privadas e passa a existir um mecanismo pra CONTESTAR conteúdo removido

14) a quebra de criptografia em serviços de mensagem foi removido

15) A lei passa a definir estritamente o número de reencaminhamentos em serviços de mensagem, especialmente no período de eleições

16) A lei passou a determinar que o usuário deve classificar de antemão se aquele perfil ou número será usado para envio de mensagens em massa, de modo a facilitar a identificação de spam

17) Anúncio online ou propaganda política precisar atender os termos da lei, mas passou a ser obrigado a fornecer dados de que por que a pessoa foi selecionada para assistir aquela propaganda e quais conteúdos aquele patrocinador financiou nos últimos 12 meses

18) A publicidade governamental deixa de ser obrigada a ser baseada em evidências cientìficas e proibida de usar bots pra disseminar desinformação e passa a ser obrigada a educar seus servidores sobre o assunto

19) a multa deixa de ter um valor aberto e passa a assumir critérios de proporcionalidade

 

Detalhamento das modificações

1) O limite de aplicação da lei deixou de ser faturamento para número de usuários cadastrados

Opinião: Esse ponto foi positivo pois a divisão antiga impedia o surgimento de concorrrentes internacionais – Tiktok, Snapchat – ao principais players do mercado – Google e Facebook.

Versão antiga

Art. 1º Esta lei estabelece diretrizes de atuação para provedores de aplicação com receita bruta total no ano-calendário superior a R$ 78.000.000,00 (setenta e oito milhões de reais) em relação a contas inautênticas, disseminação de desinformação, conteúdos, anúncios online e propagandas políticas patrocinadas no Brasil.

§1º O valor da receita bruta de que trata o caput poderá ser auferido por empresa, grupo ou conglomerado que tenha como atuação econômica relevante o disposto no inciso I do art. 4º.

Versão nova

Art. 1º Esta lei estabelece normas, diretrizes e mecanismos de transparência de redes sociais e de serviços de mensageria privada através da internet, para desestimular o seu abuso ou manipulação com potencial de dar causa a danos individuais ou coletivos (Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet).

§1º Esta Lei não se aplica a provedor de aplicação que oferte serviço de rede social ao público brasileiro com menos de dois milhões de usuários registrados, para o qual as disposições desta Lei servirão de parâmetro para aplicação de programa de boas práticas, buscando utilizar medidas adequadas e proporcionais no combate à desinformação e na transparência sobre conteúdos pagos.

—————————————————————————————–

2) A lei deixou de ser considerada “boa prática” para aquelas empresas a quem ela não se aplica e passou a se extender pra provedores de aplicações no exterior

Opinião: foi positivo ela deixa de ser considerada como boa prática para aplicações de pequeno porte, mas abre espaço para a censura de aplicativos disponíveis no exterior por não se adequarem à uma lei local.

Versão antiga

§3º Os provedores de aplicação com receita bruta inferior ao disposto no caput devem considerar as disposições desta Lei como boas práticas a serem seguidas, buscando utilizar medidas adequadas e proporcionais no combate à desinformação e na transparência sobre conteúdos pagos.

Versão nova

§3º Esta Lei se aplica, inclusive, ao provedor de aplicação sediado no exterior, desde que oferte serviço ao público brasileiro ou pelo menos uma integrante do mesmo grupo econômico possua estabelecimento no Brasil.

—————————————————————————————–

3) Foi alterado o conceito de desinformação com a exclusão de finalidade e feita a exceção à paródia

Opinião: foi positiva a exclusão de classificação de desinformação por finalidade, mas o conceito de “colocado fora de contexto” para classificar desinformação deveria ser excluiído por ser muito estrito.

Versão antiga

III – desinformação: conteúdo falso ou enganoso que foi propositadamente colocado fora de contexto, manipulado ou completamente forjado com o interesse de enganar público e que: a) Seja disseminado para obter ganhos econômicos; ou b) Possa causar danos públicos, como fraudes eleitorais, o risco à estabilidade democrática, ao funcionamento de serviços públicos, à integridade física e moral de pessoas e grupos identificáveis por sua raça, gênero, orientação sexual ou visão ideológica ou consequências negativas à saúde individual ou coletiva

Versão nova

II – desinformação: conteúdo, em parte ou no todo, inequivocamente falso ou enganoso, passível de verificação, colocado fora de contexto, manipulado ou forjado, com potencial de causar danos individuais ou coletivos, ressalvado o ânimo humorístico ou de paródia.

—————————————————————————————–

4) Conta inautêntica deixou de considerar aquela que “deturpa intencionalmente conteúdo”

Opinião: a alteração é poitiva pois é muito difícil determinar se uma conta “deturpa intencionalmente, mas o próprio conceito de conta inautêntica deveria ser removido ou ao menos restrito para quem assumir identidade de terceiro, ressalvada a paródia e o humor.

Versão antiga

V – conta inautêntica: conta que dissemina desinformação, criada ou usada com o propósito de deturpar intencionalmente conteúdos ou dolosamente assumir identidade de terceira pessoa para enganar o público;

Versão nova

IV – conta inautêntica: conta criada ou usada com o propósito de disseminar desinformação ou assumir identidade de terceira pessoa para enganar o público;

—————————————————————————————–

5) o conceito de Bot ou robô foi substituido por “disseminador artificial” e passou a focar em “conteúdo”

Opinião: a ideia de tornar bots ilegais sempre foi absurda, mas o conceito de disseminador artificial precisa ser reformulado para “disseminador automatizado”, como apontou a Coalizão Direito nas Redes.

Versão antiga

VI -Bot ou robô: programas criados para imitar, substituir ou facilitar atividades de humanos na execução de tarefas repetitivas em aplicações de internet;

VII – Botnet: conjunto de bots controlados por um grupo de pessoas, uma conta individual, um governo ou uma empresa;

Versão nova

V – disseminadores artificiais: qualquer programa de computador ou tecnologia empregada para simular, substituir ou facilitar atividades de humanos na disseminação de conteúdo em aplicações de internet;

VI – rede de disseminação artificial: conjunto de disseminadores artificiais cuja atividade é coordenada e articulada por pessoa ou grupo de pessoas, conta individual, governo ou empresa com fim de impactar de forma artificial a distribuição de conteúdo com o objetivo de obter ganhos financeiros e ou políticos;

—————————————————————————————–

6) Foram excluídos o conceito de alcance significativo anúncio online, propaganda política, algoritmo de visualização e incluídos rede social e serviço de mensageria privada

Opinião: especialmente o conceito de alcance significativo era extremamente danoso.

excluídos

II – alcance significativo: conteúdo cuja visualização supera 5.000 pessoas;

X – anúncios online: qualquer conteúdo promovido ou impulsionado por meio de pagamento de uma retribuição pecuniária ou estimável em dinheiro em uma aplicação de internet;

XI – propaganda política patrocinada: qualquer conteúdo promovido ou impulsionado por meio de pagamento de uma retribuição pecuniária ou estimável em dinheiro relacionado à política, eleições ou outros temas de interesse nacional que: a) são feitas por ou em nome de alguém que foi ou é atualmente candidata a um cargo público, um representante eleito ou em nome de um partido político, um comitê de ação política ou em uma eleição para um cargo público; b) relacionadas à qualquer eleição, referendo, iniciativa de votação, incluindo campanhas de incentivo ao voto ou campanhas de informação sobre as eleições; c) relacionadas com qualquer assunto relacionado à política nacional ou internacional, que tenha importância pública em qualquer lugar que o conteúdo pago está sendo exibido; ou

XIII – algoritmo de visualização: quando um provedor de aplicação utiliza um processo automatizado para determinar quando, como, e em qual ordem um conteúdo é apresentado a um usuário, incluindo ferramentas que recomendam ou disponibilizam automaticamente conteúdos baseados nas preferências dos usuários ou em interações anteriores.

incluídos

X – rede social: aplicação de internet que realiza a conexão entre si de usuários permitindo a comunicação, o compartilhamento e a disseminação de conteúdo em um mesmo sistema de informação, através de contas conectadas ou acessíveis entre si de forma articulada.

XI – serviço de mensageria privada: provedores de aplicação que prestam serviços de mensagens instantâneas por meio de comunicação interpessoal, acessíveis a partir de terminais móveis com alta capacidade de processamento ou de outros equipamentos digitais conectados à rede, destinados, principalmente, à comunicação privada entre seus usuários, inclusive os criptografados.

—————————————————————————————–

7) Foi ampliado o conceito de uso legítimo, para livre manifestação artística, mas foi restringido de maneira ambígua o conceito de uso “imagens manipuladas”

Opinião: positivo, a ideia de limitar a manipulação de imagens apenas para deep fake era muito restrito

versão antiga

§1º Os provedores de aplicação devem respeitar a utilização lícita de pseudônimos e outros usos legítimos de suas contas e serviços, nos termos do artigo 5, IX e 220 da Constituição Federal respeitado o direito a honra de terceiros.

§3º Dada a natureza complexa e em rápida mudança do comportamento de disseminação de desinformação nas redes, os provedores de aplicação devem desenvolver procedimentos de acompanhamento para melhorar as proteções do usuário contra comportamentos ilícitos, incluindo a proteção contra o uso de imagens manipuladas para imitar a realidade (“deep fake”), entre outros.

versão nova

§1º As vedações do caput não implicarão restrição ao livre desenvolvimento da personalidade individual, à manifestação artística, intelectual, de conteúdo satírico, religioso, ficcional, literário ou qualquer outra forma de manifestação cultural, nos termos dos arts. 5º , IX e 220 da Constituição Federal.

§3º Dada a natureza complexa e em rápida mudança do comportamento inautêntico, os provedores de aplicação devem desenvolver procedimentos para melhorar as proteções da sociedade contra comportamentos ilícitos, incluindo a proteção contra o uso de imagens manipuladas para imitar a realidade, observado o disposto no §1º deste artigo.

—————————————————————————————–

8) Os relatórios passaram a dar menos peso para verificadores de fatos independentes e órgãos oficiais e passaram a pedir dados mais detalhados de um ponto de vista demográfico

Opinião: a exclusão do número de requisições feitas por verificador de fatos ou órgão público reduz a possível censura a conteúdos, mas qual a vantagem de pedir gênero, idade e origem de perfis falsos?

excluídos

V – número de vezes em que um verificador de fatos independente, órgão público ou pessoa jurídica de direito privado foi consultada para tomada de decisão em relação a uma reclamação de usuário e quantas correções foram emitidas;

VI – outros dados relacionados a engajamentos ou interações com conteúdos que foram verificados como desinformação, discurso de ódio, exploração infantil, nudez não consentida e outras ações, podendo incluir curtidas, visualizações, cliques, alcance ou outras métricas relevantes de interação, bem como informações sobre pedidos de retirada e alteração de conteúdos por pessoas físicas e jurídicas que não sejam provenientes de verificadores de fatos independentes, incluindo aquelas advindas de entes governamentais.

incluídos

§1º Em relação aos perfis removidos, as plataformas devem fornecer de forma desagregada os dados categorizados por gênero, idade e origem dos perfis.

VI – dados relacionados a engajamentos ou interações com conteúdos que foram verificados como desinformação, incluindo, no mínimo: a) número de visualizações; b) número de compartilhamentos; c) alcance; d) número de denúncias; e) informações sobre pedidos de remoção e alteração de conteúdos por pessoas físicas e jurídicas, incluindo aqueles advindos de entes governamentais; f) outras métricas relevantes.

VII – estrutura dedicada ao combate à desinformação no Brasil, em comparação a outros países, contendo o número de pessoal diretamente empregado na análise de conteúdo bem como outros aspectos relevantes;

—————————————————————————————–

9) É mantido e ampliado que os relatórios devem permitir identificar as redes produtoras de desinformação, incluindo através de conteúdo patrocinado

Opinião: medida bastante positiva, especialmente a inclusão de dados para estudos acadêmicos

versão antiga

Parágrafo único: Os relatórios e dados disponibilizados devem permitir a inter relação entre bots, contas e conteúdos desinformativos disseminados, de modo que seja possível a identificação de rede produtoras e disseminadoras de desinformação.

versão nova

VIII – em relação a conteúdo patrocinado, quem pagou pelo conteúdo, qual o público alvo e quanto foi gasto, em uma plataforma de fácil acesso a usuários e pesquisadores.

§1º Os relatórios e dados disponibilizados devem apontar a relação entre disseminadores artificiais, contas e disseminação de conteúdos, de modo que seja possível a identificação de redes articuladas de disseminação de conteúdo.

Art. 8º Resguardado o respeito à proteção de dados pessoais, as redes sociais devem atuar para facilitar o compartilhamento de dados com instituições de pesquisa para análises acadêmicas de desinformação.

—————————————————————————————–

10) As medidas proativas para proteção contra desinformação se tornaram mais transparentes

Opinião: os critérios deixaram de ser apenas os padrões internacionais para se tornarem mais objetivas

versão antiga

Art. 8º Os provedores de aplicação de que trata esta Lei devem tomar medidas proativas para proteger seus serviços contra a disseminação de desinformação através de medidas técnicas compatíveis com os padrões internacionais e pelo estímulo ao uso de boas práticas.

versão nova

Art. 9º Aos provedores de aplicação de que trata esta Lei, cabe a tomada de medidas necessárias para proteger a sociedade contra a disseminação de desinformação por meio de seus serviços, informando-as conforme o disposto nos artigos 6º e 7º desta Lei.

—————————————————————————————–

11) o tempo máximo de envio de conteúdo agências de verificação e justificativas foi retirado

Opinião: positivo, a monitoração anterior que inclluia conteudos com mais de 5 mil visualizações num prázo máximo de 12 horas era impossível de ser realizada se não de maneira automática e pouco confiável.

excluído

Art. 9º Os provedores de aplicação devem ser transparentes em relação a conteúdos potencialmente desinformativos e encaminhar tais conteúdos para verificadores de fatos independentes o mais rápido possível para análise, tendo no máximo 12 (doze) horas para a adoção das providências indicadas nesta Lei.

Art. 10. As medidas proativas devem ser efetivas, proporcionais, não discriminatórias e devem considerar os direitos fundamentais dos usuários, em particular a liberdade de expressão e o respeito à legislação de proteção de dados pessoais.

Parágrafo único. Em qualquer ação tomada em cumprimento a esta Lei, em relação a contas ou conteúdo de usuários, os provedores de aplicação devem notificar o usuário sobre a medida tomada e apresentar claramente os motivos.

—————————————————————————————–

12) A remoção e posterior notificação de conteúdo falso deixam de ser obrigatórias e passam a ser consideradas”boas práticas”. O aviso a quem compartilhou informação falsa é ressaltado

Opinião: Essa alteração reduz os critério que geram sanção para empresas e ressaltam o envio de notificação de informação falsa a quem a enviou

versão antiga

Art. 12. É obrigatória a disponibilização de serviço de revisão do conteúdo considerado como desinformativo ao usuário.

Art. 13. É vedado o patrocínio de conteúdo verificado e revisado como desinformação nos termos do art. 12.

Art. 14. Para cada conteúdo com alcance significativo que for apurado como desinformação pelos verificadores de fatos independentes, os provedores de aplicação deverão compartilhar a correção sugerida objetivando atingir, no mínimo, o alcance inicial do conteúdo original e as pessoas atingidas inicialmente.

Art. 15. Consideram-se boas práticas para corrigir a desinformação: I – o uso de correções provenientes dos verificadores de fatos independentes com ênfase nos fatos; II – Evitar a repetição da informação falsa ou enganosa.

versão nova

Art. 10. Consideram-se boas práticas para proteção da sociedade contra a desinformação: I – o uso de verificações provenientes dos verificadores de fatos independentes com ênfase nos fatos; II – desabilitar os recursos de transmissão do conteúdo desinformativo para mais de um usuário por vez, quando aplicável; III – rotular o conteúdo desinformativo como tal; IV – interromper imediatamente a promoção paga ou a promoção gratuita artificial do conteúdo, seja por mecanismo de recomendação ou outros mecanismos de ampliação de alcance do conteúdo na plataforma. V – assegurar o envio da informação verificada a todos os usuários alcançados pelo conteúdo desde sua publicação.

Art. 11. Caso o conteúdo seja considerado desinformativo, os provedores de aplicação devem prestar esclarecimentos ao primeiro usuário a publicar tal conteúdo, bem como toda e qualquer pessoa que tenha compartilhado o conteúdo, acerca da medida tomada, mediante exposição dos motivos e detalhamento das fontes usadas na verificação.

—————————————————————————————–

13) Deixa de existir a obrigação um mecanismo para DENUNCIAR informação falsa para empresas privadas e passa a existir um mecanismo pra CONTESTAR conteúdo removido

Opinião: o mecanismo de denúncia de informação falsa ainda pode ser incluido de maneira opcional e a medida de contestação é positiva, mas não há estabelecimento de prazos para essa revisão, que poderiam ser estabelecidos pelo CGI como parte de boas práticas.

versão antiga

Art. 16. Os provedores de aplicação devem fornecer um mecanismo acessível e destacado para qualquer usuário reportar desinformação ou solicitar uma correção.

Art. 17. Os provedores de aplicação devem atuar em cooperação com verificadores de fatos independentes para criar e manter um banco de dados comum de desinformações verificadas, cujo conteúdo deve ser disponibilizado publicamente

versão nova

Art. 12. Os provedores de aplicação devem fornecer um mecanismo acessível e em destaque, disponível por no mínimo três meses após a decisão, para que o usuário criador ou compartilhador do conteúdo, bem como o usuário autor de eventual denúncia possa recorrer da decisão.

§1º Deve ser facultada ao usuário a apresentação de informação adicional a ser considerada no momento da revisão.

§2º Caso a revisão seja considerada procedente pelo provedor de aplicação, este deve atuar para reverter os efeitos da decisão original.

Art. 24. A aplicação de internet de pessoa jurídica do poder público deve: I – disponibilizar mecanismo acessível e destacado para qualquer usuário reportar desinformação; e II – utilizar as diretrizes de rotulação de conteúdos patrocinados promovidos pelo setor público.

——————————————————————————————

14) a quebra de criptografia em serviços de mensagem foi removido

Opinião: ótima notícia, ainda que fosse simplesmente absurdo estar previsto no projeto anterior

excluído

Art. 18. Os provedores de aplicação que prestarem serviços de mensagens instantâneas, inclusive os criptografados, devem identificar aos usuários o produtor das mensagens escritas por terceiros e as mensagens que tiveram origem ou disseminação realizada por bots.

——————————————————————————————

15) A lei passa a definir estritamente o número de reencaminhamentos em serviços de mensagem, especialmente no período de eleições

Opinião: tanto limitar o número de pessoas em um grupo quanto definir o número de reencaminhamentos por lei é apenas usar o líder de mercado (Whatspp) como referência, o que não resolve o problema, apenas faz todos os concorrentes se adequarem ao líder.

versão antiga

Art. 20. Os provedores de aplicação que prestarem serviços de mensagens instantâneas devem utilizar todos os meios ao seu alcance para limitar a difusão e assinalar aos seus usuários a presença de conteúdo desinformativo, sem prejuízo da garantia à privacidade e do segredo de comunicações pessoais.

versão nova

Art. 13. Os provedores de aplicação que prestarem serviços de mensageria privada desenvolverão políticas de uso que limitem o número de encaminhamentos de uma mesma mensagem a no máximo 5 (cinco) usuários ou grupos, bem como o número máximo de membros de cada grupo de usuários para o máximo de 256 (duzentos e cinquenta e seis) membros.

§1º Em período de propaganda eleitoral, estabelecido pelo art. 36 da Lei 9.504 de 1997 e durante situações de emergência ou de calamidade pública, o número de encaminhamentos de uma mesma mensagem fica limitado a no máximo 1 (um) usuário ou grupo.

——————————————————————————————

16) A lei passou a determinar que o usuário deve classificar de antemão se aquele perfil ou número será usado para envio de mensagens em massa, de modo a facilitar a identificação de spam

Opinião: Medida positiva, pois facilita a classificação de usuários como robôs

versão antiga

Art. 19. Os provedores de aplicação que prestarem serviços de mensagens instantâneas que fornecem mecanismo de transmissão em massa devem requerer o consentimento do usuário antes de entregar as mensagens.

§1º As configurações para transmissão de mensagens devem por padrão serem definidas como “desativadas” e os usuários devem optar manualmente para começar a receber o conteúdo transmitido.

§2º O consentimento do usuário é necessário somente na primeira vez em que um remetente desejar enviar uma mensagem.

§3º Os serviços devem fornecer meios acessíveis e destacados para os usuários retirarem o consentimento dado previamente.

versão nova

Art. 14. Sem prejuízo da garantia da privacidade, na abertura de contas em provedores de serviço de mensageria privada, o usuário deverá declarar ao provedor se a conta empregará disseminadores artificiais, ou ainda, após a abertura de contas, se o usuário passar a utilizar aplicativos ou serviços de intermediários de disseminação a administração de contas.

Parágrafo único. O provedor de aplicação de mensageria privada deverá excluir a conta de usuário que não declarar o uso de disseminadores artificiais caso o volume de movimentação e número de postagens seja incompatível com o uso humano.

Art. 15. O provedor de aplicação que prestar serviço de mensageria privada e que apresente funcionalidades de comunicação de massa, como listas de transmissão, conversa em grupo e assemelhados, deve requerer permissão do usuário em momento anterior à entrega das mensagens ou à inclusão em grupo.

§1º A autorização para recebimento de mensagem em massa será por padrão desabilitada.

§2º A permissão a que se refere o caput deste artigo é necessária somente na primeira vez em que o usuário remetente desejar enviar uma mensagem.

§3º Os serviços devem fornecer meios acessíveis e destacados para os usuários retirarem a permissão concedida previamente.

——————————————————————————————

17) Anúncio online ou propaganda política precisar atender os termos da lei, mas passou a ser obrigado a fornecer dados de que por que a pessoa foi selecionada para assistir aquela propaganda e quais conteúdos aquele patrocinador financiou nos últimos 12 meses

Opinião: medida extremamente positiva

excluído

Art. 25. É proibido postar conteúdo patrocinado, anúncio online ou propaganda política patrocinada que não esteja em conformidade com os requisitos de rotulação determinados nesta Lei.

incluiído

IV – direcione o usuário para acessar informações de quais as fontes de informação e os critérios utilizados para definição de público-alvo do conteúdo patrocinado; V – inclua dados sobre todos os conteúdos que o patrocinador realizou nos últimos doze meses, incluindo aqueles em execução no momento em que receber a propaganda.

Art. 23. As redes sociais devem tornar pública, em plataforma de acesso irrestrito e facilitado, dados sobre todos os conteúdos patrocinados ativos e inativos relacionados a temas sociais, eleitorais e políticos.

——————————————————————————————

18) A publicidade governamental deixa de ser obrigada a ser baseada em evidências cientìficas e proibida de usar bots pra disseminar desinformação e passa a ser obrigada a educar seus servidores sobre o assunto

Opinião: alteração esquisita, pois se a preocupação da lei é impedir “fake news” ela desobriga o governo de se basear em fatos e evidências científicas?

versão antiga

Art. 33. Ações de publicidade e comunicação governamental devem, necessariamente, publicar informações baseadas em evidências científicas.

Parágrafo Único A Administração Pública não deve, sob nenhuma hipótese, disseminar desinformação, por meio de contas inautênticas, bots ou botnets.

versão nova

Art. 27. A União, os Estados, o Distrito Federal e os Municípios devem promover campanhas para servidores públicos sobre a importância do combate à desinformação e transparência de conteúdos patrocinados na internet.

——————————————————————————————

19) a multa deixa de ter um valor aberto e passa a assumir critérios de proporcionalidade

Opinião:

versão antiga

II – multa de até 10% (dez por cento) do faturamento do grupo econômico no Brasil no seu último exercício, excluídos os tributos, considerados a condição econômica do infrator e o princípio da proporcionalidade entre a gravidade da falta e a intensidade da sanção;

versão nova

II – multa;

§1º Para fixação e gradação da sanção, deverão ser observados: I – a gravidade do fato, a partir da consideração dos motivos da infração e das consequências nas esferas individual e coletiva; II – a reincidência na prática de infrações previstas nesta Lei; III – a capacidade econômica do infrator, no caso de aplicação da sanção prevista no inciso II do caput.

§2º Para efeito do §1º, a cominação das sanções contidas nos incisos III e IV do caput está condicionada à prévia aplicação daquelas enunciadas pelos incisos I e II nos doze meses anteriores ao cometimento da infração.

0 comentários

Enviar um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Esse site utiliza o Akismet para reduzir spam. Aprenda como seus dados de comentários são processados.

Pular para o conteúdo