Em um movimento para reforçar sua liderança no setor de saúde suplementar, a Unimed Brasil investiu e adquiriu uma participação na startup DPOnet, plataforma de gestão de privacidade, segurança e governança de dados pessoais em conformidade com a Lei Geral de Proteção de Dados (LGPD). O acordo, de valor não revelado, foi anunciado com exclusividade para o Startups.

De acordo com a Unimed, a parceria permitirá que 340 cooperativas médicas e empresas do Sistema Unimed tenham acesso a uma ampla gama de recursos e serviços da DPOnet. Isso inclui treinamentos digitais, modelos de contratos adequados à legislação, mapeamento de processos, análise de riscos, entre outros. As soluções visam não só simplificar a jornada de adequação à LGPD, como também padronizar as práticas de proteção de dados em todo o Sistema Unimed.

“Temos trabalhado para promover a sinergia entre as cooperativas Unimed e com empresas parceiras para termos ganho de eficiência e de valor em saúde, com mais segurança, aprimorando cada vez mais a qualidade dos serviços oferecidos aos nossos clientes”, afirma o superintendente de Tecnologia da Informação e Inovação da Unimed do Brasil, Maurício Cerri, em nota.

Segundo o executivo, a parceria está alinhada ao Plano Diretor de Tecnologia e Inovação, que visa otimizar os investimentos em infraestrutura, sistemas operacionais, tecnologias digitais e telessaúde, registro eletrônico em saúde, gestão de dados e inovação. A expectativa é promover um padrão de excelência em proteção de dados em todo o país e, no caso da DPOnet, estabelecer uma empresa especializada em privacidade para todas as cooperativas Unimed.

“Com taxas de crescimento impressionantes, estamos preparados para expandir nossa atuação e liderar o mercado de proteção de dados, garantindo segurança e privacidade em um setor tão importante e sensível como o da saúde”, destaca Ricardo Maravalhas, CEO e fundador da DPOnet.

A startup vem apoiando mais de 40 cooperativas médicas na sua jornada de conformidade desde a sua fundação, em 2020. A companhia já colaborou com o Lab Hub Unimed, centro de inovação da Unimed do Brasil, entregando soluções baseadas em experiência do usuário e inteligência artificial. Ao todo, a DPOnet já impactou positivamente mais de 3.500 empresas, além de ter treinado e certificado mais de 30 mil usuários com sua metodologia.

Fonte: https://startups.com.br/investimento/unimed-adquire-parte-da-dponet-para-reforcar-protecao-de-dados/
4 de julho de 2024 | Por Gabriela Del Carmen

Uma pesquisa global da Zoho lançou luz sobre uma realidade preocupante em relação à nova era de conectividade digital das empresas: as lacunas de conscientização sobre segurança em plataformas de e-mail e colaboração e outras ferramentas dedicadas ao trabalho remoto. De acordo com o estudo, intitulado "Relatório de Conscientização sobre Segurança de E-mail 2023", na América do Sul, o setor de Saúde é um dos que possui os menores níveis de conscientização sobre segurança digital, com 25%, ficando atrás apenas do setor de Finanças, com 17%, tornando os vulneráveis a ataques cibernéticos.

Por outro lado, os setores de tecnologia e indústria possuem os maiores níveis de conscientização, com 47,3% e 35,9%, respectivamente.

 

América do Sul é a região mais vulnerável do mundo

a América do Sul emerge como a região mais vulnerável em relação à segurança de e-mails em escala global. A análise foi conduzida pela Zoho Workplace, plataforma de colaboração unificada da empresa.

O estudo contempla uma análise abrangente da consciência global de segurança de e-mail, ou seja, o nível de compreensão de usuários em relação ao que pode ser considerada uma ameaça cibernética em diferentes plataformas. Ele examina a conscientização sobre segurança de e-mail em diferentes regiões, setores, tamanhos organizacionais e níveis de senioridade dos funcionários, em busca de padrões e conexões dessas variáveis para uma compreensão abrangente da consciência global de segurança de e-mail.

O relatório reúne dados de mais de 1.700 entrevistados em todo o mundo, sendo mais de 200 respostas originárias da América do Sul, incluindo países como Brasil, Argentina, Colômbia e Chile. O Brasil, com representação substancial na região, concentrou metade das respostas.

 

América do Sul pouco preparada para segurança cibernética

Os resultados revelam que a América do Sul exibe uma pontuação geral de conscientização sobre segurança de e-mail de apenas 39,9%, o que a torna a região mais vulnerável globalmente. Os números contrastam drasticamente com os níveis de conscientização de outras regiões, como América do Norte (62%), Austrália e Nova Zelândia (60,7%), e União Europeia (55,5%). A região também está em desvantagem quando comparada a seus pares Ásia (43,2%) e Oriente Médio e África (40,7%).

O relatório destaca uma série de fatores que contribuem para os altos níveis de vulnerabilidade digital na América do Sul. Entre eles, o acesso limitado a tecnologias avançadas, conformidade regulatória menos rigorosa e barreiras linguísticas, visto que grande parte das regulamentações é disponibilizada apenas em inglês. A falta de disponibilidade de conformidade e regulamentações em idiomas locais dificulta a compreensão e a implementação de práticas de segurança de e-mail.

Outro ponto que a pesquisa examinou, foram as várias ameaças à segurança de e-mails, com destaque para autenticações e controle de acesso em e-mails, proteção de dados no compartilhamento de arquivos e URLs suspeitas. A falta de conscientização sobre práticas de autenticação segura e verificação de identidade de e-mails (18%) e anexo e phishings (24%) são as ameaças mais críticas, e consequentemente com o menor nível de conscientização dos profissionais e empresas.

 

Preocupação com as PMEs brasileiras

Dentro das Pequenas e Médias Empresas (PMEs), as organizações brasileiras exibem um alarmante nível de conscientização de apenas 37,7%, colocando-as em desvantagem significativa em comparação com seus pares na América do Norte e na União Europeia, com 61,6% e 54,1% de sensibilização, respectivamente.

Já em relação às grandes empresas, embora expresse uma melhoria, a América do Sul ainda está atrás das regiões desenvolvidas, destacando potenciais vulnerabilidades nos protocolos de segurança no local de trabalho, segundo o relatório.

A disparidade entre os níveis de conscientização sobre segurança de e-mail entre PMEs e grandes empresas na América do Sul reflete as tendências observadas em outras regiões. Isso sugere a necessidade de iniciativas de conscientização direcionadas adaptadas aos desafios únicos enfrentados pelas organizações menores, como recursos limitados e acesso à educação em segurança cibernética.

 

Como mudar essa realidade

Para enfrentar esses desafios ligados à vulnerabilidade, a pesquisa traz recomendações como a priorização do treinamento em segurança cibernética em todos os níveis hierárquicos; o desenvolvimento de programas específicos do setor e a adoção de padrões de segurança inspirados no GDPR. Além disso, a participação em iniciativas globais de conscientização é tida como fundamental para promover uma cultura de segurança proativa em toda a região, segundo a Zoho.

Em última análise, a pesquisa da Zoho destaca a necessidade urgente de medidas fortalecer as defesas cibernéticas na América do Sul e mitigar os crescentes riscos de segurança de e-mail enfrentados pelas organizações da região.

Segundo o relatório, empresas, líderes de TI e educadores de segurança cibernética devem investir em programas de conscientização acessíveis e abrangentes, além de ações de educação contínua, que se adaptam aos desafios únicos enfrentados pelas organizações sul-americanas.

 

 

Fonte: TI Inside

A Autoridade Nacional de Proteção de Dados (ANPD) entregou, nesta quarta-feira (08), ao Senador Eduardo Gomes (PL-TO), presidente da Comissão Temporária sobre Inteligência Artificial no Brasil, documento contendo contribuições da Autoridade para o Substitutivo do PL 2338. O projeto, apresentado no ano passado pelo presidente do Senado, Rodrigo Pacheco (PSD-MG), está em análise junto a outras nove propostas, inclusive uma já votada na Câmara dos Deputados. O prazo para apresentação de sugestões termina nesta quinta-feira (09) e a tramitação em comissão está prevista para terminar dia 25 de maio.

As mudanças propostas pela Autoridade incluem alteração nas definições de alguns termos, mudanças na abordagem dos direitos do titular de dados, questões relacionadas a sistemas biométricos, classificação de sistemas de alto risco e regulação e governança de inteligência artificial. O documento, de 25 páginas, sugere, ainda, alterações no processo de regulamentação e normatização, nas sanções administrativas, nas regras para execução de sandbox regulatório, além do prazo para indicação da autoridade competente.

As propostas, elaboradas por equipe multidisciplinar de servidores, refletem o entendimento de que a inteligência artificial requer uma governança multisetorial. Segundo esse ponto de vista, haveria a necessidade de uma coordenação central que harmonize as diretrizes e as ações regulatórias em âmbito nacional.

"A ANPD se destaca como a entidade mais adequada para liderar este processo, dado seu mandato de zelar pelo direito constitucional da proteção de dados pessoais e sua expertise técnico-regulatória", defende Waldemar Gonçalves, Diretor-Presidente da ANPD.

Comentário

Matheus Puppe, sócio especialista de novas tecnologias do escritório Maneira Advogados, diz que "diante da proposta da Autoridade Nacional de Proteção de Dados (ANPD) de alterar o substitutivo do PL 2338, observamos que a governança multissetorial para regular a inteligência artificial (IA) se torna fundamental. A ANPD destaca seu papel como coordenadora central nessa governança, considerando sua expertise técnica e regulatória, porém a mesma enfrenta dificuldades administrativas para assumir todas as responsabilidades, como visto na regulação da proteção de dados. A falta de estrutura pode resultar em lacunas no monitoramento e na aplicação das normas, prejudicando a eficácia da regulação. Por isso, é essencial investir em aprimoramento técnico e na coordenação de outras agências, permitindo uma abordagem que assegure o respeito às diretrizes, especialmente diante de um cenário inovador como o da IA"

"Minha opinião é que devemos unir o melhor de cada proposta para criar uma regulação sólida e competitiva globalmente. A regulação de IA deve ser fundamentada em princípios de autorregulação regulada, com análise de riscos e sanções rígidas para o descumprimento, com um enfoque baseado em risco ("risk-based approach"). Nesse sentido, a regulamentação deve necessariamente equilibrar proteção e inovação, estabelecendo medidas robustas de compliance, transparência e responsabilização das empresas"

"Observando os padrões da União Europeia e dos Estados Unidos, é evidente que uma governança multissetorial requer a harmonização de diretrizes regulatórias. A regulação deve ser suficientemente abrangente para considerar questões relacionadas a sistemas biométricos, classificações de risco e diretrizes de uso, acompanhando sempre a evolução da tecnologia, mas ainda assim garantindo a segurança jurídica".

"Portanto, é necessário uma abordagem colaborativa que envolva o setor público e privado, harmonizando-se com padrões internacionais para assegurar a eficácia regulatória, promovendo o desenvolvimento tecnológico e a proteção dos direitos e garantias fundamentais."

 

Fonte: TI Inside

A Unimed Vales do Taquari e Rio Pardo (Unimed VTRP) sofreu um ataque cibernético no dia 26 de março, comunicou a polícia, mas no dia 10 de maio - em plena tragédia da chuva no Rio Grande do Sul - os hackers vazaram os dados, depois da recusa de pagar resgate.

Segundo comunicado da cooperativa médica, desde o dia 26 de março, os serviços foram reestabelecidos e houve um monitoramento do incidente. Mas os hackers, insatisfeitos porque não houve pagamento de resgate, vazaram os dados na internet.

Imediatamente ao ocorrido, a cooperativa disse que deflagrou os processos e procedimentos de segurança com consultorias especializadas buscando mitigar ao máximo qualquer tipo de impacto com nossos públicos de relacionamento. Empresa diz ainda que está seguindo as diretrizes estabelecidas pela Lei Geral de Proteção de Dados (LGPD).

O comunicado se encerra com a Unimed enfatizando: "Somos vítimas de criminosos digitais, e estamos nos colocando à disposição para acolher todas as demandas que chegarem até nós." Atualizações sobre este incidente serão publicadas nesta página: https://www.unimedvtrp.com.br/incidente-cibernetico

 

Fonte: Convergência Digital

Ferramentas como o ChatGPT e Google Bard certamente estão entre as tecnologias mais disruptivas do nosso tempo. Graças à sua capacidade de automatizar tarefas complexas, elas devem ser um grande impulso para diversas inovações nos próximos anos. Contudo, além de seus benefícios, os perigos da inteligência artificial (IA) também estão em debate.

Empresas e governos estão cada vez mais conscientes dos desafios para a aplicação desse recurso, especialmente no que diz respeito à privacidade e à segurança das informações pessoais dos indivíduos. Neste artigo, você verá:

 1. Violação de Privacidade e Consentimento Inadequado

Um dos maiores perigos da inteligência artificial para a proteção de dados é a possibilidade de violação da privacidade. Essas ferramentas dependem de grandes volumes de dados para treinamento e aprendizado e, muitas vezes, seus usuários não têm consciência de como eles são aplicados.

Isso levanta preocupações éticas sobre a falta de consentimento adequado para coleta e uso de informações pessoais. Por ser uma tecnologia muito recente, ainda falta clareza sobre como os dados são obtidos e de que forma os indivíduos podem ter o controle desse processo. 

2. Vieses e Discriminação

Outro perigo significativo é a presença de vieses nos dados de treinamento que podem ser refletidos pelos modelos de IA. Se os dados históricos utilizados para treinar a ferramenta contiverem preconceitos ou discriminação, ela pode aprender e perpetuá-los e tomar decisões discriminatórias em várias áreas.

Por exemplo, o uso da IA em processos de seleção para empregos pode ser influenciado por viés de gênero ou raça. Existe a preocupação de que essa parcialidade prejudique ações de inclusão e diversidade nas organizações.

3. Reidentificação de Dados Anonimizados

A anonimização de dados é frequentemente usada para proteger a privacidade ao remover informações identificáveis dos dados. Contudo, a combinação de conjuntos de dados e técnicas avançadas de análise com aplicação da IA pode reverter esse processo e vincular os dados a indivíduos específicos.

Esse ponto é particularmente preocupante quando se tratam de dados sensíveis, como informações médicas ou financeiras. Nessas situações, a reidentificação pode gerar vulnerabilidades a práticas indesejadas.

4. Falta de Transparência

A complexidade dos algoritmos, como redes neurais profundas, pode dar origem a ferramentas consideradas caixas-pretas. Ou seja, modelos capazes de fornecer respostas extremamente precisas, mas que nem mesmo seus criadores podem entender, prever ou controlar. Essa preocupação levou grandes líderes da indústria a pedirem uma pausa nos projetos de IA

A falta de transparência pode ser um dos principais perigos da inteligência artificial, pois dificultaria a responsabilização e a justificação de decisões tomadas por esses sistemas, especialmente em casos que afetam significativamente a vida das pessoas. 

O direito de entender como uma decisão foi tomada, especialmente quando envolve dados pessoais, é um aspecto fundamental da proteção de dados.

5. Falsa sensação de segurança

À medida em que os modelos de IA se tornam mais precisos em muitas tarefas, pode-se presumir que eles são infalíveis. Porém, a segurança desses sistemas é uma preocupação crítica, especialmente devido à possibilidade de ciberataques. Criminosos podem explorar vulnerabilidades para introduzir perturbações imperceptíveis nos dados de entrada e gerar resultados errôneos.

É importante ter em mente que mesmo os modelos mais sofisticados não são invulneráveis e podem ser enganados, resultando em consequências graves para a proteção de dados e a segurança das informações.

Como a LGPD pode impactar o uso da IA?

De acordo com a Lei Geral de Proteção de Dados (LGPD), o consentimento é uma das bases legais para autorizar o tratamento de dados pessoais. Isso significa que, para usar ferramentas de IA nesse processo, as empresas precisam fornecer explicações claras sobre seu funcionamento e finalidade.

Além disso, os desenvolvedores de IA devem aderir aos princípios de minimização de dados. Ou seja, só devem coletar e usar os dados pessoais estritamente necessários para um propósito específico, e apenas pelo tempo necessário. Os dados coletados para um propósito não podem ser usados para outro sem consentimento adicional.

A legislação também chama a atenção para a necessidade de transparência sobre o funcionamento desses algoritmos, visto que os indivíduos têm o direito de acessar seus dados, retificar imprecisões e até mesmo apagá-los em certas situações. Isso pode ser um grande desafio para sistemas que dependem de dados históricos para treinamento.

Para entender melhor como se prevenir contra esses perigos da inteligência artificial na sua empresa, conheça as cinco atitudes essenciais para a adequação à LGPD!

Os cartórios são verdadeiros depósitos de informações pessoais e dados sensíveis. Certidões de nascimento, casamento, óbito, abertura e fechamento de empresas… tudo passa por eles! Por esse motivo, não poderia ser diferente: o cumprimento da LGPD nos cartórios já é uma exigência.

Inclusive, aqueles que não estão adequados podem não apenas sofrer penalidades por parte do órgão fiscalizador (a Autoridade Nacional de Proteção de Dados, também conhecida como ANPD), como também perder grandes oportunidades de negócios. 

Isso porque empresas que precisam constantemente de serviços notariais e de registro dão prioridade àqueles que estão adequados à lei — uma vez que elas mesmas precisam prestar contas. 

Entretanto, quando se trata desse setor específico, nem tudo é tão simples. Existem algumas particularidades que geram dúvidas e até duplas interpretações sobre o que manda a lei. 

Continue lendo este artigo e entenda!

Impactos da LGPD nos cartórios 

Para início de conversa, vale relembrar que, no Brasil, os cartórios têm natureza jurídica híbrida. Isso significa que eles têm características de serviços privados e públicos, uma vez que são exercidos no primeiro âmbito por delegação do segundo. 

Por este motivo, eles precisam estar alinhados com os princípios de publicidade e transparência dispostos na Constituição Federal. Então é aqui onde começa o grande impasse.

Como respeitar uma sem ferir a outra, uma vez que o direito à privacidade também é protegido pela Constituição?

Como adotar a LGPD em cartórios sem ferir a Constituição?

Já considerando essas implicações com a lei máxima do país, a LGPD aborda essas questões. 

Em seu texto, a Lei Geral de Proteção de Dados diz que algumas informações pessoais podem ser tratadas sem a necessidade do consentimento prévio do titular. Porém, no caso de disponibilização, o acesso deve ser justificado considerando:

Porém, a gente precisa concordar que todos esses itens — talvez apenas com exceção do primeiro, que é indicado pelas bases legais dispostas na Lei  — são muito subjetivos, certo?

Então como fazer essa avaliação? 

Como se adequar à LGPD nos cartórios? 

A melhor forma de lidar com as imposições da LGPD nos cartórios é contar com um auxílio jurídico especializado nessa Lei. Por isso, é essencial a contratação de um Data Protection Officer (DPO, ou em português, Encarregado de Proteção de Dados).

Esse profissional será responsável por fazer a comunicação entre os cartórios, os solicitantes, os titulares e a ANPD. Além disso, ele também fica responsável por avaliar os casos específicos, entendendo como eles se encaixam em todo esse cenário descrito no artigo. 

Ainda não está convencido sobre essa necessidade e quer entender mais sobre o cargo de DPO?

Então baixe o nosso e-book gratuito para conhecer mais sobre as funções e responsabilidades do DPO em uma empresa.

Está em busca de mais conteúdo sobre LGPD e Proteção de Dados?

Está em busca de mais conteúdo sobre LGPD e Proteção de Dados?

Você pode saber mais sobre LGPD para empresas acessando os nossos materiais.
Ver materiais

Inscreva-se em nosso blog

Inscreva-se em nossa newsletter e receba os melhores conteúdos no seu e-mail!
Seus dados estão protegidos conosco.
Este campo é para fins de validação e não deve ser alterado.

O que é a DPOnet?

Uma empresa brasileira fundada em 2020 na cidade de Pompeia, em São Paulo, que desenvolveu uma plataforma de gestão de privacidade, segurança e governança de dados pessoais que vem democratizando, automatizando e simplificando a jornada de adequação à LGPD.
Saiba mais

Fale diretamente com um especialista em adequação à Lei Geral de Proteção de Dados (LGPD)

Sua empresa protegida contra multas e penalidades
Adequação ágil e com suporte técnico e jurídico especializado
Plataforma completa para gerenciamento dos dados pessoais que você trata
Mais de 1000 empresas satisfeitas

"*" indica campos obrigatórios

Nome completo*
Este campo é para fins de validação e não deve ser alterado.
Entraremos em contato em até 30 minutos. O contato é gratuito e sem compromisso. Ao informar meus dados, eu concordo com a Política de Privacidade e com os Termos de Uso.
menumenu-circlecross-circlechevron-down-circle