O rápido avanço da tecnologia tem gerado discussões sobre regulamentações para garantir aplicações éticas e seguras - e durante o Fórum Econômico Mundial deste ano não foi diferente.
Executivos das maiores empresas aproveitaram a oportunidade para alertar o público de que a inteligência artificial (IA) deve ser regulamentada.
Mas não pelos fabricantes.
Sunder Pichai, diretor executivo da Alphabet - dona do Google, do Android e do YouTube, afirmou que o desenvolvimento da IA é "mais profundo que o fogo ou a eletricidade".
Para o executivo, é necessário haver uma estrutura global que dê base para a tecnologia.
(Crédito imagem: Shutterstock)
O CEO da Microsoft, Satya Nadella, e a CEO da IBM, Ginni Rometty, concordam.
De fato, permitir que as empresas ditem a sua própria ética sobre a IA já causou protestos de funcionários.
A onda atual de preocupações em relação à IA também é oportuna.
O Google, por exemplo, decidiu se retirar do Projeto Maven, um programa secreto do governo que usava a tecnologia para analisar imagens de drones militares, em 2018.
União Europeia
Em poucas semanas, a União Europeia deve apresentar os seus planos de regulamentar a tecnologia, o que pode incluir novos requisitos para desenvolvedores de IA em "setores de alto risco", como cuidados com a saúde e transporte.
Caso sejam aprovadas, as novas regras podem exigir que as empresas sejam transparentes sobre como constroem os seus sistemas.
RECOMENDADA
Sebrae Sergipe abre processo para contratar agentes locais de inovação
Violação de dados
Alertar a elite empresarial sobre os perigos da IA, no entanto, fez parte de discussões de problemas recorrentes, como a violação de dados.
No ano passado, funcionários da Amazon.com foram pegos ouvindo conversas de usuários por meio do sistema de assistência virtual da companhia, Alexa, levando os reguladores da UE a procurar mais maneiras de policiar a tecnologia.
Em julho, o Facebook concordou em pagar às autoridades norte-americanas US$ 5 bilhões para resolver o escândalo de dados da Cambridge Analytica.
E em setembro, o YouTube foi protagonista de um caso que violava as regras dos EUA, que proíbem a coleta de dados de crianças menores de 13 anos.
RELACIONADA
Avião comercial decola sozinho pela primeira vez na história; veja o vídeo
Em vez de pedir desculpas pelas violações da privacidade, as grandes empresas tecnologia se concentraram em quão longe chegaram nos últimos anos em termos de cuidado com dados pessoais.
O vice-presidente do Facebook, Nicola Mendelsohn, disse em entrevista à Bloomberg Television que a companhia adotou padrões semelhantes ao Regulamento Geral de Proteção de Dados da Europa em outros mercados.
Keith Enright, diretora de privacidade do Google, também falou em uma conferência nesta semana sobre como a empresa está trabalhando para encontrar maneiras de minimizar a quantidade de dados coletados.
"No momento, estamos realmente focados em fazer mais com menos dados", declarou Enright.
EUA
Apesar das recentes iniciativas, os reguladores seguem criando novas leis para proteger os dados dos usuários. Os EUA estão trabalhando em uma legislação federal que exige limites para o compartilhamento de informações e, semelhante ao GDPR, exige que as empresas obtenham o consentimento dos consumidores antes de dividir dados com terceiros.
Brasil
No Brasil, a Lei Geral de Proteção de Dados (LGPD) entra em vigor em agosto deste ano.
Com informaçoes da CIO