Pechar anuncio

O campo da tecnoloxía está ameazado por unha serie de factores. Os usuarios temen, por exemplo, o malware ou a perda de privacidade. Pero segundo personalidades influentes da industria tecnolóxica, non debemos preocuparnos tanto polo propio factor humano, senón pola súa conexión coa intelixencia artificial. No Foro Económico Mundial deste ano en Davos, directivos de varias grandes empresas tecnolóxicas pediron unha regulación lexislativa da industria. Cales son as súas razóns para facelo?

"A intelixencia artificial é unha das cousas máis profundas nas que estamos a traballar como humanidade. Ten máis profundidade que o lume ou a electricidade". dixo o conselleiro delegado de Alphabet Inc. o pasado mércores no Foro Económico Mundial. Sundar Pichai, engadindo que a regulación da intelixencia artificial require un marco de procesamento global. A directora de Microsoft, Satya Nadella, e a directora de IBM, Ginni Rometty, tamén piden a estandarización das regras relativas ao uso da intelixencia artificial. Segundo Nadella, hoxe, hai máis de trinta anos, é necesario que Estados Unidos, China e a Unión Europea establezan unhas normas que determinen a importancia da intelixencia artificial para a nosa sociedade e para o mundo.

Os intentos de empresas individuais de establecer as súas propias regras de ética para a intelixencia artificial atopáronse no pasado con protestas non só dos empregados destas empresas. Por exemplo, Google tivo que retirarse en 2018 do programa gobernamental secreto Project Maven, que utilizou tecnoloxía para analizar imaxes de drons militares, tras unha reacción masiva. Respecto das controversias éticas que rodean á intelixencia artificial, Stefan Heumann, do think tank con sede en Berlín Stiftung Neue Verantwortung, di que as organizacións políticas, non as propias empresas, deberían establecer as regras.

O altofalante intelixente de Google Home usa intelixencia artificial

A actual vaga de protestas contra a intelixencia artificial ten un motivo claro para este momento. En poucas semanas, a Unión Europea ten que cambiar os seus plans para a lexislación pertinente. Isto podería incluír, por exemplo, normativas relativas ao desenvolvemento da intelixencia artificial en sectores denominados de alto risco como a sanidade ou o transporte. Segundo as novas regras, por exemplo, as empresas terían que documentar no marco da transparencia como constrúen os seus sistemas de IA.

En relación coa intelixencia artificial, xa apareceron varios escándalos no pasado, un deles é, por exemplo, o asunto Cambridge Analytica. Na empresa Amazon, os empregados escoitaban aos usuarios a través do asistente dixital Alexa, e no verán do ano pasado volveu estalar un escándalo polo feito de que a empresa Google -ou a plataforma YouTube- recolleu datos de menores de trece anos. sen o consentimento dos pais.

Aínda que algunhas empresas calan sobre este tema, segundo a declaración da súa vicepresidenta Nicola Mendelsohn, Facebook estableceu recentemente as súas propias regras, semellantes á normativa europea GDPR. Mendelsohn dixo nun comunicado que este foi o resultado do impulso de Facebook para unha regulación global. Keith Enright, responsable da privacidade de Google, dixo nunha conferencia recente en Bruxelas que a compañía está a buscar formas de minimizar a cantidade de datos dos usuarios que hai que recoller. "Pero a afirmación popular xeneralizada é que empresas como a nosa están a tentar recoller a maior cantidade de datos posible". afirmou ademais, e engadiu que manter datos que non aporten ningún valor aos usuarios é arriscado.

Os reguladores non parecen subestimar a protección dos datos dos usuarios en ningún caso. Os Estados Unidos traballan actualmente nunha lexislación federal similar ao GDPR. En base a eles, as empresas terían que obter o consentimento dos seus clientes para facilitar os seus datos a terceiros.

Siri FB

Fonte: Bloomberg

.