Singapura divulga diretrizes para proteger sistemas de IA e proibir deepfakes em eleições

escudo de segurança cercado por ícones de dispositivos

alexsl/Getty Images

Singapura fez uma série de anúncios de segurança cibernética esta semana, incluindo diretrizes sobre a segurança de sistemas de inteligência artificial (IA), um rótulo de segurança para dispositivos médicos e uma nova legislação que proíbe deepfakes em conteúdo publicitário eleitoral.

Suas novas Diretrizes e Guia Complementar de Proteção de Sistemas de IA visam promover uma abordagem segura desde o design, para que as organizações possam mitigar riscos potenciais no desenvolvimento e implantação de sistemas de IA.

Além disso: a IA e a automação podem gerenciar adequadamente as ameaças crescentes ao cenário da segurança cibernética?

“Os sistemas de IA podem ser vulneráveis ​​a ataques adversários, onde atores maliciosos manipulam ou enganam intencionalmente o sistema de IA”, afirmou a Agência de Segurança Cibernética (CSA) de Singapura. “A adoção da IA ​​também pode exacerbar os riscos de segurança cibernética existentes para os sistemas empresariais, (que) podem levar a riscos como violações de dados ou resultar em resultados de modelo prejudiciais ou de outra forma indesejados.”

“Como tal, a IA deve ser segura desde a concepção e segura por defeito, como acontece com todos os sistemas de software”, disse a agência governamental.

Além disso: a ansiedade da IA ​​aflige 90% dos consumidores e empresas – veja o que mais os preocupa

Observou que as diretrizes identificam ameaças potenciais, como ataques à cadeia de abastecimento, e riscos como a aprendizagem automática adversária. Desenvolvidos com referência a padrões internacionais estabelecidos, incluem princípios para ajudar os profissionais a implementar controlos de segurança e melhores práticas para proteger os sistemas de IA.

As diretrizes abrangem cinco estágios do ciclo de vida da IA, incluindo desenvolvimento, operações e manutenção, e fim de vida, o último dos quais destaca como os dados e os artefatos do modelo de IA devem ser descartados.

Além disso: os profissionais de segurança cibernética estão recorrendo à IA à medida que mais pessoas perdem o controle das ferramentas de detecção

Para desenvolver o guia complementar, a CSA disse que trabalhou com profissionais de IA e segurança cibernética para fornecer um “recurso voltado para a comunidade” que oferece medidas e controles “práticos”. Este guia também será atualizado para acompanhar os desenvolvimentos no mercado de segurança de IA.

Inclui estudos de caso, incluindo ataques de patches em sistemas de vigilância por reconhecimento de imagem.

No entanto, como os controlos abordam principalmente os riscos de cibersegurança para os sistemas de IA, o guia não aborda a segurança da IA ​​ou outros componentes relacionados, como a transparência e a equidade. Algumas medidas recomendadas, porém, podem se sobrepor, disse a CSA, acrescentando que o guia não cobre o uso indevido de IA em ataques cibernéticos, como malware ou golpes alimentados por IA, como deepfakes.

Também:As equipes de segurança cibernética precisam de novas habilidades, mesmo quando enfrentam dificuldades para gerenciar sistemas legados

Singapura, no entanto, aprovou uma nova legislação que proíbe o uso de deepfakes e outros conteúdos publicitários eleitorais online gerados ou manipulados digitalmente.

Esse conteúdo retrata candidatos dizendo ou fazendo algo que não disseram ou fizeram, mas é “suficientemente realista” para que o público “acredite razoavelmente” que o conteúdo manipulado é real.

Deepfakes banidos de campanhas eleitorais

O projeto de lei (Integridade Eleitoral da Publicidade Online) (Emenda) foi aprovado após uma segunda leitura no parlamento e também aborda o conteúdo gerado usando IA, incluindo IA generativa (Gen AI) e ferramentas não-IA, como splicing, disse o Ministro da Digital Desenvolvimento e Informação Josephine Teo.

“O projeto de lei tem como objetivo abordar os tipos de conteúdo mais prejudiciais no contexto das eleições, que são conteúdos que enganam ou enganam o público sobre um candidato, por meio de uma representação falsa de seu discurso ou ações, que seja realista o suficiente para ser razoavelmente acreditado por alguns membros do público”, disse Teo. “A condição de ser realista será avaliada objetivamente. Não existe um conjunto de critérios que sirva para todos, mas alguns pontos gerais podem ser feitos.”

Além disso: um terço de todos os projetos generativos de IA serão abandonados, diz Gartner

Eles abrangem conteúdos que “correspondem estreitamente” às características, expressões e maneirismos conhecidos dos candidatos, explicou ela. O conteúdo também pode usar pessoas, eventos e lugares reais, por isso parece mais verossímil, acrescentou ela.

A maioria do público em geral pode achar inconcebível o conteúdo que mostra o primeiro-ministro dando conselhos de investimento nas redes sociais, mas alguns ainda podem ser vítimas de tais fraudes habilitadas por IA, observou ela. “A este respeito, a lei será aplicada enquanto houver alguns membros do público que possam razoavelmente acreditar que o candidato disse ou fez o que foi retratado”, disse ela.

Além disso: Todos os olhos voltados para a defesa cibernética à medida que as eleições entram na era da IA ​​generativa

Estes são os quatro componentes que devem ser atendidos para que o conteúdo seja proibido pela nova legislação: um anúncio eleitoral on-line foi gerado ou manipulado digitalmente e retrata candidatos dizendo ou fazendo algo que não fizeram, e é realista o suficiente para ser considerado por alguns em público para ser legítimo.

O projeto de lei não proíbe o uso “razoável” de IA ou outra tecnologia em campanhas eleitorais, disse Teo, como memes, personagens animados ou gerados por IA e desenhos animados. Também não se aplicará a “alterações cosméticas benignas” que abrangem o uso de filtros de beleza e ajuste de iluminação em vídeos.

Além disso: você acha que a IA pode resolver todos os seus problemas de negócios? O novo estudo da Apple mostra o contrário

O ministro observou ainda que o projeto de lei não abrangerá comunicações privadas ou domésticas ou conteúdos partilhados entre indivíduos ou em chats de grupos fechados.

“Dito isto, sabemos que conteúdos falsos podem circular rapidamente em canais abertos do WhatsApp ou Telegram”, disse ela. “Se for relatado que conteúdo proibido está sendo comunicado em grandes grupos de bate-papo que envolvem muitos usuários que são estranhos uns aos outros e são livremente acessíveis ao público, tais comunicações serão abrangidas pelo projeto de lei e avaliaremos se a ação deve ser tomada. levado.”

Além disso: Google revela investimento de US$ 3 bilhões para atender à demanda de IA na Malásia e na Tailândia

A lei também não se aplica a notícias publicadas por agências de notícias autorizadas, acrescentou ela, ou ao leigo que “descuidadamente” compartilha de novo mensagens e links sem perceber que o conteúdo foi manipulado.

O governo de Cingapura planeja usar diversas ferramentas de detecção para avaliar se o conteúdo foi gerado ou manipulado por meios digitais, explicou Teo. Isso inclui ferramentas comerciais, ferramentas internas e ferramentas desenvolvidas com pesquisadores, como o Centro de Tecnologias Avançadas em Segurança Online, disse ela.

Além disso: OpenAI vê novo escritório em Cingapura apoiando seu rápido crescimento na região

Em Singapura, serão emitidas instruções corretivas às pessoas relevantes, incluindo serviços de redes sociais, para remover ou desativar o acesso a conteúdos publicitários eleitorais online proibidos.

Multas de até SG$ 1 milhão podem ser emitidas para um provedor de serviço de mídia social que não cumpra uma orientação corretiva. Multas de até SG$ 1.000 ou prisão de até um ano, ou ambas, podem ser aplicadas a todas as outras partes, incluindo indivíduos, que não cumpram as instruções corretivas.

Além disso: braço de IA da Sony Research para ajudar a desenvolver um grande modelo de linguagem com AI Singapore

“Tem havido um aumento notável de incidentes de deepfake em países onde eleições ocorreram ou estão planejadas”, disse Teo, citando uma pesquisa da Sumsub que estimou um aumento de três vezes em incidentes de deepfake na Índia e mais de 16 vezes na Coreia do Sul. em comparação com um ano atrás.

“A desinformação gerada pela IA pode ameaçar seriamente as nossas fundações democráticas e exige uma resposta igualmente séria”, disse ela. O novo projeto de lei garantirá que a “veracidade da representação dos candidatos” e a integridade das eleições de Singapura possam ser mantidas, acrescentou ela.

Este dispositivo médico está adequadamente protegido?

Singapura também procura ajudar os utilizadores a adquirir dispositivos médicos que sejam adequadamente protegidos. Na quarta-feira, a CSA lançou um esquema de rotulagem de segurança cibernética para esses dispositivos, expandindo um programa que abrange produtos de consumo da Internet das Coisas (IoT).

A nova iniciativa foi desenvolvida em conjunto com o Ministério da Saúde, a Autoridade de Ciências da Saúde e a agência nacional de tecnologia da saúde, Synapxe.

Além disso: Cingapura busca avanços médicos “práticos” com novo centro de pesquisa de IA

O rótulo foi concebido para indicar o nível de segurança em dispositivos médicos e permitir que os utilizadores de cuidados de saúde tomem decisões de compra informadas, disse a CSA. O programa se aplica a dispositivos que lidam com informações de identificação pessoal e dados clínicos, com capacidade de coletar, armazenar, processar e transmitir os dados. Também se aplica a equipamentos médicos que se conectam a outros sistemas e serviços e podem se comunicar por meio de protocolos de comunicação com ou sem fio.

Os produtos serão avaliados com base em quatro níveis de classificação: os dispositivos médicos de Nível 1 devem atender aos requisitos básicos de segurança cibernética, os sistemas de Nível 4 devem ter requisitos aprimorados de segurança cibernética e também devem passar por análise binária de software de terceiros independente e avaliação de segurança.

Também:Esses dispositivos médicos de IoT apresentam os maiores riscos de segurança

O lançamento ocorre após uma fase sandbox de nove meses que terminou em julho de 2024, durante a qual 47 inscrições de 19 fabricantes de dispositivos médicos participantes submeteram seus produtos a uma variedade de testes. Isso inclui analisadores de diagnóstico in vitro, análise binária de software, testes de penetração e avaliação de segurança.

O feedback recolhido na fase sandbox foi utilizado para ajustar os processos e requisitos operacionais do regime, incluindo proporcionar mais clareza sobre os processos de candidatura e a metodologia de avaliação.

Além disso: Fazendo perguntas médicas através do MyChart? Seu médico pode deixar a IA responder

O programa de rotulagem é voluntário, mas a CSA apelou à necessidade de tomar “medidas proactivas” para salvaguardar contra os crescentes riscos cibernéticos, especialmente à medida que os dispositivos médicos se ligam cada vez mais às redes hospitalares e domésticas.

Atualmente, os dispositivos médicos em Singapura devem ser registados na HSA e estão sujeitos a requisitos regulamentares, incluindo segurança cibernética, antes de poderem ser importados e disponibilizados no país.

Além disso: a IA está aliviando o esgotamento dos terapeutas. Veja como isso está mudando a saúde mental

A CSA, em um anúncio separado, disse que o esquema de rotulagem de segurança cibernética para dispositivos de consumo agora é reconhecido na Coreia do Sul.

Os acordos bilaterais foram assinados à margem da conferência Singapore International Cyber ​​Week 2024 desta semana, com a Agência Coreana de Internet e Segurança (KISA) e o Escritório Federal Alemão para Segurança da Informação (BSI).

Programado para entrar em vigor a partir de 1º de janeiro do próximo ano, o acordo sul-coreano verá a Certificação de Segurança Cibernética de IoT da KISA e o Selo de Segurança Cibernética de Cingapura reconhecidos mutuamente em ambos os países. É a primeira vez que um mercado da Ásia-Pacífico faz parte de tal acordo, que Singapura também assinou com a Finlândia e a Alemanha.

Além disso: conectar IA generativa a dados médicos melhorou a utilidade para os médicos

O esquema de certificação da Coreia do Sul abrange três níveis – Lite, Básico e Padrão – com testes de laboratório de terceiros exigidos em todos. Os dispositivos emitidos com o Nível Básico serão considerados como tendo adquirido os requisitos do Nível 3 do esquema de rotulagem de Singapura, que tem quatro níveis de classificação. A KISA também reconhecerá os produtos de Nível 3 de Singapura como tendo cumprido a sua certificação de nível Básico.

Os rótulos serão aplicados a dispositivos inteligentes de consumo, incluindo automação residencial, sistemas de alarme e gateways IoT.


Rolar para cima
Pular para o conteúdo