\"ética

A tecnologia de inteligência artificial (IA) é a tecnologia mais transformadora do nosso tempo. Utilizada por empresas para controlar grandes quantidades de dados e indivíduos para simplificar as rotinas diárias, a IA generativa tem poderes muito maiores. A sua capacidade de criar conteúdos totalmente novos levou a questões sobre aplicações éticas e à necessidade de regular o que a IA pode fazer. Equilibrar a inovação com a responsabilidade tornou-se uma das principais questões para as partes interessadas na IA, levando mesmo a envolvimento do Papa.

Principais questões éticas em IA

Se houvesse alguma dúvida sobre os poderes transformacionais da IA, a velocidade recorde de crescimento do chatbot ChatGPT demonstrou sem sombra de dúvida a demanda por IA generativa. Cinco dias após seu lançamento, o ChatGPT atraiu um milhão de usuários. Dentro de dois meses, o número cresceu para 100 milhões, estabelecendo um recorde para o aplicativo de consumo que mais cresce até o momento.

Esse recorde já foi superado pelos Threads do Meta, mas continua impressionante. Contudo, o crescimento da IA ​​generativa não é apenas uma boa notícia. A maioria das mudanças tecnológicas inovadoras tem um custo, e a IA não é diferente. Seu crescimento gerou uma lista de questionamentos sobre a ética por trás do conteúdo.

As questões levantadas tanto pelos céticos quanto pelos usuários giram em torno de preconceito e justiça, privacidade, responsabilidade e transparência. Quando se trata de ética e IA, a controvérsia começa muito antes de os usuários postarem os resultados em seus blogs e outros meios de comunicação.

O treinamento de chatbots de IA como o ChatGPT levantaram questões sobre direitos autorais e propriedade intelectual. Os especialistas concluíram que, em sua corrida para dominar o mercado de aplicativos de IA, empresas como OpenAI (dona do ChatGPT), Google e Meta cortaram custos para se manterem à frente da concorrência.

Equilibrando Inovação com Responsabilidade

A necessidade de equilibrar a inovação da IA ​​com práticas empresariais responsáveis ​​tornou-se tão urgente que o tema foi uma consideração importante durante a recente cimeira dos líderes mundiais do G7, em Itália. Numa sessão que contou não só com os líderes do G7, mas também aberta a representantes de outros países e ao chefe da Igreja Católica, os participantes tentaram aproximar-se da criação de um “quadro regulamentar, ético e cultural”Para IA.

Viés de dados é uma das principais questões em torno da IA. Os aplicativos são tão poderosos quanto as informações usadas para treiná-los, e é por isso que os principais participantes podem ter ignorado as leis de direitos autorais para melhorar seus conjuntos de dados. A controvérsia entre autores e outros criadores e os principais players da tecnologia levou agora o Escritório de Direitos Autorais dos EUA revisar como a lei de direitos autorais pode ser aplicada à IA generativa.

Transparência é outra preocupação, pois poucos usuários entendem como os algoritmos de IA selecionam as informações que apresentam ou divulgam suas fontes. Sem este tipo de informação, torna-se quase impossível aos utilizadores identificar informações falsas, permitindo a propagação de informações erradas e desinformadas.

As potenciais invasões de privacidade também levantaram questões, especialmente quando a utilização de tecnologias de reconhecimento facial confunde a linha entre segurança e vigilância injustificada. Depois, há questões de responsabilização, por exemplo, quando a IA é utilizada para realizar ou complementar diagnósticos médicos.

As decisões tomadas por carros autónomos são outra área onde as tecnologias baseadas em IA estão a levantar questões. De quem é a culpa quando um carro autônomo não consegue parar em uma faixa de pedestres?

Estruturas e Diretrizes

Já em 2020, alguns anos antes de a IA generativa ser disponibilizada ao público em geral, o Revisão de negócios de Harvard observou que a IA não só ajudava as empresas a expandir os seus negócios, como também gerava riscos acrescidos. Na altura, a ética relacionada com a IA estava a deixar de ser um tema obscuro discutido por académicos para se tornar algo com que as maiores empresas tecnológicas do mundo precisavam de se preocupar.

Hoje, há Acordo Geral que a IA precisa de ser regulamentada para que a tecnologia possa ser aproveitada para o bem da humanidade. No entanto, ainda não existe uma estrutura definida com a qual os principais intervenientes da indústria nos EUA, governos e outros concordem.

Na Europa, o Parlamento Europeu adotou sua primeira Lei de IA no início deste ano, com requisitos entrando em vigor gradualmente ao longo dos próximos 24 meses. As disposições diferem dependendo dos níveis de risco de aplicações individuais de IA, incluindo risco inaceitável e alto. Os requisitos de transparência para ferramentas generativas de IA incluem a divulgação de quando a IA foi utilizada e a concepção de modelos de forma a impedir a criação de conteúdos ilegais.

Embora estas disposições possam parecer abstratas, elas serão aplicadas ao funcionamento diário de inúmeras empresas. Empresas de todos os portes já estão recorrendo ao ChatGPT para gerar conteúdo para seus canais de marketing digital. Ferramentas como Stay Social utilizam IA para otimizar conteúdo de mídia social geração, economizando tempo e dinheiro às empresas. O conteúdo gerado por estas e outras ferramentas terá de cumprir qualquer regulamentação futura.

O papel das partes interessadas

Os desenvolvedores, as principais empresas de IA como OpenAI e Google, os governos e os usuários têm um papel fundamental a desempenhar para garantir que a IA seja desenvolvida e usada de forma ética. Começando pelo esclarecimento de disputas de direitos autorais durante o treinamento em IA, os desenvolvedores precisam garantir que os aplicativos baseados em IA não sejam capazes de criar e distribuir informações incorretas.

Os governos terão de encontrar formas de aproveitar o poder económico da IA ​​sem comprometer o acesso, introduzir preconceitos ou limitar o acesso a certos grupos da sociedade. Os utilizadores e consumidores de informações geradas pela IA devem poder ver claramente de que forma a informação foi obtida.

Direções futuras

A prevalência da IA ​​na nossa sociedade continuará a crescer à medida que diferentes partes interessadas exploram o seu potencial. À medida que governos e grupos como o Parceria em IA trabalharem para criar uma versão equitativa e capacitadora da IA, os usuários precisarão responsabilizar seus fornecedores.

Ferramentas generativas de IA como ChatGPT são as primeiras aplicações desta tecnologia que provavelmente transformará nossas vidas mais do que o advento da Internet. Aproveitar positivamente este poder será fundamental para o desenvolvimento ético da IA.

Conclusão

Equilibrar o entusiasmo dos novos desenvolvimentos da IA ​​e as preocupações éticas em torno da sua utilização têm sido temas muito discutidos nos últimos anos. Com o surgimento de quadros regulamentares, continua a ser fundamental aproveitar a IA de forma ética para o benefício de toda a humanidade.

A postagem Ética em IA: Equilibrando Inovação com Responsabilidade apareceu primeiro em Notícias diárias de coragem.

https://gritdaily.com/ethics-in-ai-balancing-innovation-responsibility/
Autora: Jessica Wong

A Uniorka oferece uma ampla gama de cursos de graduação, pós-graduação e técnicos, todas na modalidade a distância. Com foco em flexibilidade e acessibilidade, aliada a Faspec se destaca por facilitar o acesso à educação de qualidade para estudantes de todo o Brasil, oferecendo cursos em áreas como química, eletrotécnica, mecânica, segurança do trabalho, pedagogia, e muitos outros. Para mais informações sobre os cursos e inscrições, visite https://www.uniorka.com.br

Would you like to share your thoughts?

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *