1. CONHECENDO O BÁSICO
Com exceção daqueles que nasceram literalmente ontem, é impossível que seus alunos não tenham lido ou ouvido algo sobre Inteligência Artificial. É bem possível, inclusive, que isso tenha ocorrido hoje. E é quase certo que, mesmo sem ter consciência, eles já tenham interagido com algum aplicativo ou sistema que possui funcionalidades desenvolvidas com base em técnicas de Inteligência Artificial.
Mas seus alunos devem estar se perguntando: “Tudo bem, professor(a), você está certo(a), parabéns — eu já ouvi falar sobre Inteligência Artificial, hoje de manhã estava conversando sobre o lançamento do ChatGPT versão 27 e tal — mas o que isso tem a ver com Direito Administrativo?”
Bem, aqui como um(a) seguidor(a) do método socrático, você não deve responde-los e, pior!, deve devolver a eles uma nova pergunta: “Se vocês já leram, ouviram e interagiram com a Inteligência Artificial, vocês também já devem ser ouvido algo sobre os riscos potenciais — e os danos já causados — por esse tipo de tecnologia, correto?”
Se eles responderam sim a essa nova pergunta, eles já têm os elementos para rascunharem a resposta para sua pergunta (caso tenham respondido não, peça para eles retornarem duas casas): o Direito Administrativo é uma das principais ferramentas (não a única!) para regular inovações e tentar mitigar riscos e danos potenciais que podem advir de sua disseminação.
Mas você sabe que alunos, por natureza, são céticos. Então é importante demonstrar a relevância do tema. Uma das formas de aferi-la, para além do argumento de autoridade, é recorrer à velha máxima “falem mal, mas falem de mim”: a relevância de determinado tema pode ser inferida a partir da frequência que o tema aparece em texto escritos. O Google possui uma ferramenta (o N-gram: https://books.google.com/ngrams/) que mapeia a frequência de palavras e/ou expressões em livros escritos em inglês, de 1800 a 2022. Abaixo, segue o gráfico comparando a frequência dos termos “nuclear energy” e “artificial intelligence”, duas inovações do século XX, no período de 1940 a 2022:
Ok, se o tema parece ser relevante (se nenhum argumento convencer seus alunos, eles devem se contentar com o fato de que o tema é objeto de uma disciplina no curso de Direito Administrativo!), ele não é um fim em si mesmo. As principais preocupações que a Inteligência Artificial desperta referem-se ao fato de ela ser uma das poucas tecnologias, já desenvolvidas pelos humanos, que pode ser chamada de “tecnologia de propósito geral”.
Tecnologias de propósito geral — como o motor a combustão, a eletricidade, o computador e a internet — são aquelas que podem impactar a estrutura das sociedades, dado seu potencial de uso disseminado em diversas atividades econômicas, sociais e políticas.
E a Inteligência Artificial parece se encaixar, ainda que de forma potencial, nesse conceito. E quando estamos diante de tecnologias de propósito geral, é natural inferir que eventuais impactos negativos (ou, para usar a terminologia que faz o professor parecer mais inteligente, as externalidades negativas) podem atingir não apenas uma quantidade maior de pessoas, mas, inclusive, as gerações futuras.
Inclusive, já existem repositórios que consolidam exemplos e casos concretos em que a utilização de ferramentas de Inteligência Artificial produziram danos reais, palpáveis: os dois melhores são https://incidentdatabase.ai/ e https://www.aiaaic.org/aiaaic-repository (vale a pena, depois, convidar os alunos a mapearem problemas relacionados a temas específicos). Na data em que essas mal-traçadas linhas são escritas, haviam sido identificados 805 e 1.760 incidentes, respectivamente, por cada repositório.
Pois bem, e como o Direito reage a tal tipo de inovação tecnológica (para usar o termo tão batido!) disruptiva?
Nós podemos resumir as principais posições com duas metáforas: (i) jogar parado e (ii) jogar no ataque. Os defensores da primeira posição acreditam que, dificilmente, o Direito tem condições de dar respostas tempestivas, ou se antecipar preventivamente, aos impactos deletérios das novas tecnologias. Vamos trabalhar esse ponto mais detalhadamente com apoio de alguns textos, mas o resumo da ópera é: o Direito sempre chega atrasado e, portanto, devemos dar preferência a trabalhar com os institutos jurídicos já existentes e com os instrumentos regulatórios já consolidados, em vez de criar novas leis ou regulações.
Já aqueles que defendem a segunda posição, pelo contrário, acreditam que há instrumentos que possibilitariam ao Direito reagir, de maneira tempestiva, às inovações tecnológicas, evitando que elas produzissem danos no curto ou médio prazos. Ou seja, o Direito pode (e deve), na visão desse grupo, criar regulações específicas para lidar com novos problemas (e mesmo os velhos, que são potencializados pela nova tecnologia), e não se fiar em institutos jurídicos criados para realidades e contextos distintos.
Você já deve ter percebido que tais posições são antagônicas (quase um Fla-Flu jurídico; mas, como bom mineiro que sou, digo que se parece com um Raposa contra Galo) e dificilmente reconciliáveis.
A realidade contemporânea tem demonstrado que, em se tratando de Inteligência Artificial, nenhum dos grupos pode cantar vitória: a União Europeia, por exemplo, optou por uma regulação abrangente e detalhada, que traz obrigações mais incisivas e pesadas de acordo com o uso dos sistemas de Inteligência Artificial, com objetivo de proteger direitos fundamentais de seus cidadãos (há usos terminantemente proibidos — como criação de ferramentas para criar sistemas de controle dos cidadãos —, usos considerados de alto risco, como uso de reconhecimento facial para segurança pública e usos de baixo risco).
Já o Reino Unido optou por uma abordagem principiológica, na qual há orientações e balizas procedimentais mínimas que devem ser seguidas por quem quer usar Inteligência Artificial, com objetivo de não onerar os desenvolvedores de aplicações. Os Estados Unidos, por outro lado, escolheram uma abordagem setorial, na qual as diversas agências federais deverão desenvolver parâmetros mínimos de segurança, transparência e equidade para o uso em cada área, mas garantindo amplo espaço para inovação, pesquisa e desenvolvimento. A China escolheu um caminho que estabelece regulações setoriais, com objetivo de fomentar o desenvolvimento e a segurança nacional.
E o Brasil? Bem, o Brasil, até a data em que essas linhas são digitadas, não possui regulação específica, mas o projeto de lei que se encontra em estágio mais avançado no Congresso Nacional (PL 2338/2023, já aprovado pelo Senado Federal) é fortemente inspirado no modelo europeu, baseado na garantia de direitos fundamentais e em regulação assimétrica de acordo com o nível de risco de cada sistema de Inteligência Artificial.
Mas nem só de conversa e método socrático vive o ser humano. Então, para que possa seja possível conduzir os debates, foram selecionadas algumas leituras — reproduzidas abaixo —, bem como algumas perguntas para provocar a sua reflexão (e dos alunos também!).
2. CONECTANDO-SE COM A REALIDADE JURÍDICA E ADMINISTRATIVA
A primeira leitura sugerida é um trecho de artigo escrito por Frank H. Easterbrook, um jurista (e juiz) norte-americano, que, em sua trajetória acadêmica, escreveu textos na área de direito da concorrência e empresarial.
No trecho destacado a seguir — retirado de um artigo irônico, publicado em 1996, no qual foi instado a falar sobre a relação entre a nascente internet e a propriedade intelectual (lembrando que o uso comercial da internet começou a se disseminar, para o público em geral, apenas em 1993-94…) — Easterbrook defende que o Direito não deveria “se estressar” muito diante das inovações tecnológicas. A busca por criar novos ramos jurídicos, customizados para cada nova tecnologia, seria não apenas uma luta perdida, mas inútil.
A melhor saída seria estudar os princípios e regras gerais do Direito e aplica-los às (novas) realidades trazidas pelas inovações tecnológicas. Ou seja, nada de criar um ramo do Direito chamado “JusIA”.
Cyberspace and the Law of the Horse [Ciberespaço e o Direito do Cavalo]
Por Frank H. Easterbrook
University of Chicago Legal Forum 207 (1996)
(traduzido por Felipe Roquete)
Erros na legislação são comuns, principalmente quando a tecnologia está avançando a passos largos. Não vamos nos esforçar para adequar um sistema jurídico imperfeito a um mundo em evolução que não compreendemos bem. Em vez disso, façamos o que é essencial para permitir que os participantes desse mundo em evolução tomem suas próprias decisões. Isso significa três coisas: deixar as regras claras; criar direitos de propriedade onde hoje não há nenhum; e facilitar a formação de instituições de negociação. Depois, deixe o mundo do ciberespaço evoluir como quiser e aproveite os benefícios. (p.215-216)
(…)
Quando era reitor da faculdade de direito, Gerhard Casper se orgulhava do fato de a Universidade de Chicago não oferecer um curso sobre “O Direito do Cavalo”. Ele não quis dizer com isso que Illinois é especializada em grãos e não em cavalos. O que ele queria dizer era que os cursos de “Direito e …. “ deveriam se limitar a assuntos que pudessem iluminar toda a lei. Em vez de oferecer cursos adequados a diletantes, a Universidade de Chicago ofereceu cursos de Direito e Economia e Direito e Literatura, ministrados por pessoas que poderiam ser nomeadas para os melhores departamentos de economia e literatura do mundo – até mesmo ganhar o Prêmio Nobel de Economia, como Ronald Coase fez.
Lamento informar que ninguém neste Simpósio ganhará um Prêmio Nobel tão cedo pelos avanços na ciência da computação. Corremos o risco do diletantismo multidisciplinar ou, como um dos meus mentores chamou, a esterilização cruzada de ideias. Junte dois campos sobre os quais você sabe pouco e obtenha o pior dos dois mundos. Bem, deixe-me ser modesto. Estou correndo o risco de ser diletante e suspeito que não estou sozinho. As crenças que os advogados têm sobre computadores e as previsões que fazem sobre novas tecnologias têm grande probabilidade de serem falsas. Isso deveria nos fazer hesitar em prescrever adaptações legais para o ciberespaço. Os cegos não são bons desbravadores.
A observação de Dean Casper tinha um segundo significado: que a melhor maneira de aprender a lei aplicável a assuntos especializados é estudar as regras gerais. Muitos casos tratam da venda de cavalos; outros tratam de pessoas que levam coices de cavalos; outros ainda tratam do licenciamento e das corridas de cavalos, ou dos cuidados que os veterinários dão aos cavalos, ou dos prêmios em exposições de cavalos. Qualquer esforço para reunir essas vertentes em um curso sobre “O Direito do Cavalo” está fadado a ser superficial e a perder os princípios unificadores. Ensinar 100% dos casos de pessoas que levaram coices de cavalos não transmitirá muito bem a lei de responsabilidade civil. É muito melhor para a maioria dos alunos – melhor, até mesmo, para aqueles que planejam se dedicar ao comércio de cavalos – fazer cursos de propriedade, responsabilidade civil, transações comerciais e afins, acrescentando à dieta de casos de cavalos um pouco de transações de pepinos, gatos, carvão e berços. Somente colocando o direito do cavalo no contexto de regras mais amplas sobre empreendimentos comerciais é que se poderia realmente entender o direito sobre cavalos. (p.207-208)
Três anos depois, Lawrence Lessig, professor da Harvard Law School, escreveu um artigo em resposta a Easterbrook. Ele defendia não a criação de um “Direito do Cavalo”, mas que a relação entre direito e o ciberespaço deveria ensejar uma nova abordagem sobre os limites da norma jurídica como reguladora primordial desse admirável mundo novo que a tecnologia começava a descortinar.
Além do direito, as normas sociais, os mercados e o mundo físico (o que ele chama de “arquitetura”) trariam as balizas para regular comportamentos. No caso de novas tecnologias, a ponderação acerca do mix dessas quatro estratégias seria o principal desafio para regular aquelas inovações.
The Law of the Horse: What Cyberlaw Might Teach? [O Direito do Cavalo: o que o Direito do Ciberespaço pode ensinar?]
Por Lawrence Lessig
Harvard Law Review 113 (2): 501-549 (1999).
(traduzido por Felipe Roquete)
Minha afirmação é o contrário. Concordo que nosso objetivo deve ser a realização de cursos que “iluminem toda a lei”, mas, ao contrário de Easterbrook, acredito que há um ponto importante que vem de pensar sobre como a lei e o ciberespaço se conectam.
Esse ponto geral é sobre os limites da lei como reguladora e sobre as técnicas para escapar desses limites. Essa fuga, tanto no espaço real quanto no ciberespaço, vem do reconhecimento do conjunto de ferramentas que uma sociedade tem à disposição para afetar as restrições ao comportamento. A lei em seu sentido tradicional – uma ordem apoiada por uma ameaça dirigida ao comportamento – é apenas uma dessas ferramentas. O ponto geral é que a lei pode afetar essas outras ferramentas – que elas mesmas restringem o comportamento e podem funcionar como ferramentas da lei. A escolha entre as ferramentas depende, obviamente, de sua eficácia. Mas o mais importante é que a escolha também levantará uma questão sobre valores. Ao trabalhar com esses exemplos de interação da lei com o ciberespaço, colocaremos em evidência um conjunto de questões gerais sobre a regulamentação da lei fora do ciberespaço.
Não estou argumentando que qualquer área especializada do direito produziria o mesmo insight. Não estou defendendo o Direito do Cavalo. Minha alegação é específica para o ciberespaço. Quando pensamos na regulamentação do ciberespaço, vemos algo que outras áreas não nos mostrariam. (p.502)
Podemos dizer que o comportamento é regulado por quatro tipos de restrições. A lei é apenas uma dessas restrições. A lei (em pelo menos um de seus aspectos) ordena que as pessoas se comportem de determinadas maneiras; ela ameaça com punição se elas não obedecerem. A lei me diz para não comprar certas drogas, não vender cigarros sem licença e não fazer comércio internacional sem antes preencher um formulário alfandegário. Ela promete punições rigorosas se essas ordens não forem seguidas. Dessa forma, dizemos que a lei regula.
Mas não é só a lei que regula nesse sentido. As normas sociais também o fazem. As normas controlam onde posso fumar; elas afetam a maneira como me comporto com membros do sexo oposto; elas limitam o que posso vestir; elas influenciam se pagarei ou não meus impostos. Assim como a lei, as normas regulam por meio da ameaça de punição ex post. Mas, diferentemente da lei, as punições das normas não são centralizadas. As normas são aplicadas (se é que são aplicadas) por uma comunidade, não por um governo. Dessa forma, as normas restringem e, portanto, regulam.
Os mercados também regulam. Eles regulam pelo preço. O preço da gasolina limita a quantidade de carros que se dirige: mais na Europa do que nos Estados Unidos. O preço das passagens de metrô afeta o uso do transporte público: mais na Europa do que nos Estados Unidos.
É claro que o mercado é capaz de restringir dessa maneira somente por causa de outras restrições da lei e das normas sociais: a propriedade e a lei contratual governam os mercados (os mercados operam dentro do domínio permitido pelas normas sociais). Mas, dadas essas normas e essa lei, o mercado apresenta outro conjunto de restrições ao comportamento individual e coletivo.
E, por fim, há uma quarta característica do espaço real que regula o comportamento: a “arquitetura”. Por “arquitetura” quero dizer o mundo físico como o encontramos, mesmo que “como o encontramos” seja simplesmente como ele já foi feito. O fato de uma rodovia dividir dois bairros limita o grau de integração dos bairros. O fato de uma cidade ter uma praça, de fácil acesso e com uma diversidade de lojas, aumenta a integração dos moradores da cidade. O fato de Paris ter grandes avenidas limita a capacidade de protesto dos revolucionários. O fato de o Tribunal Constitucional da Alemanha estar em Karlsruhe, enquanto a capital está em Berlim, limita a influência de um ramo do governo sobre o outro. Essas restrições funcionam de uma forma que molda o comportamento. Dessa forma, elas também regulam.
Essas quatro modalidades regulam juntas. A “regulação líquida” de qualquer política específica é a soma dos efeitos regulatórios das quatro modalidades juntas. Uma política pública negocia entre essas quatro ferramentas regulatórias. Ela seleciona sua ferramenta dependendo do que funciona melhor. (p.507-508)
Por trás do debate em torno do “Direito do Cavalo”, há uma discussão de fundo: o Direito é capaz de acompanhar as inovações tecnológicas? Ou ele está condenado a sempre chegar atrasado e mais atrapalhar do que ajudar?
Um dos modelos qualitativos mais interessantes — e elegantes — para compreender a difícil relação entre Direito e novas tecnologias foi formulado por David Collingridge, nascido na Inglaterra e estudioso da história da tecnologia.
Segundo Collingridge, quando o custo de regulação de uma nova tecnologia é baixo, ou seja, em seus estágios iniciais de desenvolvimento, o Estado não teria informações e conhecimento suficientes sobre suas características, limitações e impactos, fato que não permitiria o desenho de uma regulação efetiva (esse seria o “problema do conhecimento”). E, com o passar do tempo, à medida que o Estado conseguisse coletar aquelas informações e consolidar aquele conhecimento, a nova tecnologia já estaria tão entranhada na sociedade e na economia, que dificilmente o Estado teria instrumentos regulatórios capazes de corrigir seus rumos, reduzir seu ritmo ou mitigar os danos produzidos (esse seria o “problema do poder”). O modelo ficou conhecido como o “Dilema de Collingridge”.
The Social Control of Technology [O controle social da tecnologia]
Por David Collingridge
New York: St. Martin’s Press, 1980.
(traduzido por Felipe Roquete)
Este livro analisa um dos problemas mais urgentes de nosso tempo: “podemos controlar a tecnologia, podemos fazer com que ela faça o que queremos e podemos evitar suas consequências indesejáveis?” A raiz das dificuldades manifestas com as quais o controle da tecnologia se depara é que nossa competência técnica excede em muito nossa compreensão dos efeitos sociais decorrentes de seu uso. Por esse motivo, as consequências sociais de uma tecnologia não podem ser previstas no início de sua vida útil. No entanto, quando as consequências indesejáveis são descobertas, a tecnologia já faz parte de todo o tecido econômico e social e seu controle é extremamente difícil. Esse é o dilema do controle. Quando a mudança é fácil, a necessidade dela não pode ser prevista; quando a necessidade de mudança é aparente, ela se torna cara, difícil e demorada. A resposta habitual a isso é procurar maneiras melhores de prever o impacto social das tecnologias, mas os esforços nesse sentido são desperdiçados. É simplesmente impossível prever interações complexas entre uma tecnologia e a sociedade ao longo do período de tempo necessário com certeza suficiente para justificar o controle da tecnologia agora, quando o controle pode ser muito caro e prejudicial. Este trabalho propõe uma nova maneira de lidar com o dilema do controle. Se é possível saber que uma tecnologia tem efeitos sociais indesejados somente quando esses efeitos são realmente sentidos, o que é necessário é alguma forma de manter a capacidade de exercer controle sobre uma tecnologia, mesmo que ela esteja bem desenvolvida e seja amplamente utilizada. O que precisamos entender, segundo esse ponto de vista, é a origem da notória resistência ao controle que as tecnologias alcançam à medida que amadurecem. Se isso puder ser entendido e combatido de várias maneiras, a qualidade da nossa tomada de decisão sobre a tecnologia será muito melhor, pois o grau de controle que podemos exercer sobre ela será aprimorado. Se for descoberto que uma tecnologia tem alguma consequência social indesejada, não será preciso sofrer com isso, pois a tecnologia poderá ser alterada com facilidade e rapidez.
O ataque à tentativa de entender essa resistência ao controle é duplo. É desenvolvida uma teoria da tomada de decisões sob ignorância – um estado de profunda incerteza típico das decisões sobre tecnologia – que mostra como decisões desse tipo devem ser tomadas. Como o futuro é extremamente incerto, as opções que permitem que o tomador de decisões responda a tudo o que o futuro trouxer devem ser favorecidas. Em outras palavras, as decisões devem ser reversíveis, corrigíveis e flexíveis. (p.11-12)
(…)
Duas coisas são necessárias para evitar as consequências sociais prejudiciais da tecnologia: é preciso saber que uma tecnologia tem ou terá efeitos prejudiciais e deve ser possível mudar a tecnologia de alguma forma para evitar os efeitos. Nos primeiros dias do desenvolvimento de uma tecnologia, geralmente é muito fácil alterá-la. Sua taxa de desenvolvimento e difusão pode ser reduzida ou estimulada, pode ser protegida com todos os tipos de controle e pode ser possível banir a tecnologia por completo. Mas a nossa compreensão da interação entre tecnologia e sociedade é tão pobre que as consequências sociais de uma tecnologia totalmente desenvolvida não podem ser previstas durante sua infância, pelo menos não com confiança suficiente para justificar a imposição de controles perturbadores.(p.16)
O modelo desenvolvido por Collingridge foi empacotado em um novo conceito, chamado pacing problem, que pode ser assim resumido: como as novas tecnologias tendem a se desenvolver em uma velocidade mais rápida do que a regulação e as estruturas sociais que as governam, haverá sempre uma lacuna entre tecnologia e regulação.
Mas é importante relembrar que o debate jurídico, por mais que alguns juristas tentem nos convencer do contrário, nunca ocorre no vácuo. Quando estamos lidando com inovações tecnológicas, como a Inteligência Artificial, que podem ser utilizadas em diversas áreas — lembremos que estamos diante de uma tecnologia de propósito geral — a forma como a sociedade percebe e enquadra a tecnologia é fundamental para compreendermos a força que determinadas posições possuem no debate.
De uma forma bem resumida, podemos identificar dois pólos no debate acerca dos impactos advindos da disseminação de sistemas e ferramentas de Inteligência Artificial: os otimistas, que desejam acelerar ao máximo o desenvolvimento, disseminação e adoção da Inteligência Artificial, de forma a tornar irreversível sua utilização; os pessimistas, que identificam riscos (no curto prazo) e incertezas (no longo prazo) advindos da Inteligência Artificial, o que poderia trazer resultados catastróficos (por exemplo, o impacto no mercado de trabalho, passando pelos efeitos deletérios na democracia, até riscos existenciais para a raça humana).
Um texto que reflete, com perfeição, a posição do primeiro grupo foi escrito por Marc Andreessen (co-fundador da empresa que lançou o Netscape, um dos primeiros navegadores da internet, e atualmente líder de um fundo de investimento de risco em empresas de tecnologia). O manifesto, do qual reproduzimos alguns trechos abaixo, consolida os principais argumentos em torno de uma postura refratária à regulação de novas tecnologias.
The Techno-Optmist Manifesto [O Manifesto Tecno-otimista]
Por Marc Andreessen
(traduzido por Felipe Roquete)
Disponível em: https://a16z.com/the-techno-optimist-manifesto/. 16 de outubro de 2023
Mentiras
Estão mentindo para nós.
Dizem-nos que a tecnologia tira nossos empregos, reduz nossos salários, aumenta a desigualdade, ameaça nossa saúde, arruina o meio ambiente, degrada nossa sociedade, corrompe nossos filhos, prejudica nossa humanidade, ameaça nosso futuro e está sempre prestes a arruinar tudo.
Dizem que devemos ficar com raiva, amargurados e ressentidos com a tecnologia.
Dizem que devemos ser pessimistas.
(…)
Verdade
Nossa civilização foi construída com base na tecnologia.
Nossa civilização é construída com base na tecnologia.
A tecnologia é a glória da ambição e das conquistas humanas, a ponta de lança do progresso e a realização de nosso potencial.
Por centenas de anos, glorificamos isso adequadamente – até recentemente.
Estou aqui para trazer as boas notícias.
Podemos avançar para um modo de vida e de ser muito superior.
Temos as ferramentas, os sistemas, as ideias.
Temos a vontade.
É hora, mais uma vez, de levantar a bandeira da tecnologia.
É hora de sermos tecno-otimistas.
Tecnologia
Acreditamos que não há nenhum problema material – seja ele criado pela natureza ou pela tecnologia – que não possa ser resolvido com mais tecnologia.
Tínhamos um problema de fome, então inventamos a Revolução Verde.
Tínhamos um problema de escuridão, então inventamos a iluminação elétrica.
Tínhamos um problema de frio, então inventamos a calefação interna.
Tínhamos um problema de calor, por isso inventamos o ar-condicionado.
Tínhamos um problema de isolamento, por isso inventamos a Internet.
Tínhamos o problema das pandemias, por isso inventamos as vacinas.
Temos um problema de pobreza, então inventamos a tecnologia para criar abundância.
Dê-nos um problema do mundo real, e podemos inventar uma tecnologia que o resolverá.
O inimigo
Nós temos inimigos.
Nossos inimigos não são pessoas ruins, mas sim ideias ruins.
Nossa sociedade atual tem sido submetida a uma campanha de desmoralização em massa há seis décadas – contra a tecnologia e contra a vida – sob vários nomes, como “risco existencial”, “sustentabilidade”, “ESG”, “Objetivos de Desenvolvimento Sustentável”, “responsabilidade social”, “capitalismo das partes interessadas”, “Princípio da Precaução”, “confiança e segurança”, “ética tecnológica”, “gerenciamento de riscos”, “decrescimento”, “os limites do crescimento”.
(…)
Nosso inimigo é a corrupção, a captura regulatória, os monopólios, os cartéis.
Nosso inimigo são as instituições que, em sua juventude, eram vitais, enérgicas e buscavam a verdade, mas que agora estão comprometidas, corroídas e em colapso – bloqueando o progresso em tentativas cada vez mais desesperadas de manter a relevância, tentando freneticamente justificar seu financiamento contínuo, apesar da disfunção em espiral e da crescente inaptidão.
Nosso inimigo é o Princípio da Precaução, que teria impedido praticamente todo o progresso desde que o homem começou a usar o fogo. O Princípio da Precaução foi inventado para impedir a implantação em larga escala da energia nuclear civil, talvez o erro mais catastrófico da sociedade ocidental em minha vida. O Princípio da Precaução continua a infligir enorme sofrimento desnecessário em nosso mundo atual. Ele é profundamente imoral, e devemos descartá-lo com extremo preconceito.
(…)
Convidamos todos a se juntarem a nós no tecno-otimismo.
A água está quente.
Tornem-se nossos aliados na busca pela tecnologia, pela abundância e pela vida.
Outra perspectiva — lembrando que a primeira versão do ChatGPT fora lançada em 30 de novembro de 2022 — está presente em uma carta, assinada por acadêmicos, cientistas da computação e representantes da sociedade civil, na qual de defendia uma pausa no desenvolvimento e disponibilização de ferramentas de Inteligência Artificial.
Assinada inclusive por um dos fundadores da moderna IA, Yoshua Bengio (além de Daron Acemoglu, Yuval Noah Harari e Elon Musk, dentre outros), a carta propunha que, diante das incertezas quanto aos impactos da tecnologia, as empresas deveriam, de forma voluntária, interromper seus projetos e, em parceria com governos, academia e sociedade civil, estabelecer balizar de governança mínima para mitigar riscos e reduzir incertezas.
Ainda que superemos a ironia de uma carta (um dos meios mais analógicos de comunicação ainda à nossa disposição) tentar interromper o desenvolvimento de uma tecnologia de ponta, diversos temas levantados no documento — como o impacto no mercado de trabalho, o impacto no meio ambiente, os desafios da governança, dentre outros — sinalizam para problemas que precisam ser enfrentados pelos reguladores.
Pause Giant AI Experiments: an Open Letter [Parem os experimentos gigantes de IA: uma carta aberta]
Por autores diversos
(traduzido por Felipe Roquete)
Disponível em: https://futureoflife.org/open-letter/pause-giant-ai-experiments/. 22 de março de 2023
Os sistemas de IA com inteligência humana podem representar riscos profundos para a sociedade e para a humanidade, conforme demonstrado por extensas pesquisas e reconhecido pelos principais laboratórios de IA. Conforme declarado nos Princípios de IA da Asilomar, amplamente endossados, a IA avançada pode representar uma mudança profunda na história da vida na Terra e deve ser planejada e gerenciada com cuidado e recursos proporcionais. Infelizmente, esse nível de planejamento e gerenciamento não está ocorrendo, embora nos últimos meses os laboratórios de IA tenham entrado em uma corrida fora de controle para desenvolver e implantar mentes digitais cada vez mais poderosas que ninguém – nem mesmo seus criadores – consegue entender, prever ou controlar de forma confiável.
Os sistemas de IA contemporâneos estão se tornando competitivos em relação aos humanos em tarefas gerais, e devemos nos perguntar: Devemos permitir que as máquinas inundem nossos canais de informação com propaganda e falsidade? Devemos automatizar todos os trabalhos, inclusive os gratificantes? Devemos desenvolver mentes não humanas que possam vir a nos superar, ser mais espertas, obsoletas e nos substituir? Devemos correr o risco de perder o controle de nossa civilização? Essas decisões não devem ser delegadas a líderes tecnológicos não eleitos. Sistemas poderosos de IA devem ser desenvolvidos somente quando estivermos confiantes de que seus efeitos serão positivos e seus riscos serão gerenciáveis. Essa confiança deve ser bem justificada e aumentar com a magnitude dos possíveis efeitos de um sistema. A recente declaração da OpenAI sobre inteligência artificial geral afirma que “em algum momento, pode ser importante obter uma análise independente antes de começar a treinar sistemas futuros e, para os esforços mais avançados, concordar em limitar a taxa de crescimento da computação usada para criar novos modelos”. Nós concordamos. Esse momento é agora.
Portanto, pedimos a todos os laboratórios de IA que interrompam imediatamente, por pelo menos 6 meses, o treinamento de sistemas de IA mais poderosos do que o GPT-4. Essa pausa deve ser pública e verificável, e incluir todos os principais atores. Se essa pausa não puder ser implementada rapidamente, os governos devem intervir e instituir uma moratória.
Os laboratórios de IA e os especialistas independentes devem usar essa pausa para desenvolver e implementar em conjunto um conjunto de protocolos de segurança compartilhados para o projeto e o desenvolvimento de IA avançada que sejam rigorosamente auditados e supervisionados por especialistas externos independentes. Esses protocolos devem garantir que os sistemas que aderem a eles sejam seguros sem sombra de dúvida. Isso não significa uma pausa no desenvolvimento da IA em geral, apenas um recuo da perigosa corrida para modelos de caixa preta imprevisíveis e cada vez maiores com recursos emergentes.
A pesquisa e o desenvolvimento de IA devem ser reorientados para tornar os atuais sistemas poderosos e de última geração mais precisos, seguros, interpretáveis, transparentes, robustos, alinhados, confiáveis e leais.
Paralelamente, os desenvolvedores de IA devem trabalhar com os formuladores de políticas para acelerar drasticamente o desenvolvimento de sistemas robustos de governança de IA. Esses sistemas devem incluir, no mínimo: autoridades reguladoras novas e capacitadas dedicadas à IA; supervisão e rastreamento de sistemas de IA altamente capazes e grandes pools de capacidade computacional; sistemas de rastreamento e marca d’água para ajudar a distinguir o real do sintético e identificar vazamentos de modelos; um ecossistema robusto de auditoria e certificação; responsabilidade por danos causados pela IA; financiamento público robusto para pesquisa técnica de segurança de IA; e instituições com bons recursos para lidar com as perturbações econômicas e políticas drásticas (especialmente para a democracia) que a IA causará.
A humanidade pode desfrutar de um futuro próspero com a IA. Tendo sido bem-sucedidos na criação de sistemas poderosos de IA, podemos agora desfrutar de um “verão de IA” no qual colheremos as recompensas, projetaremos esses sistemas para o claro benefício de todos e daremos à sociedade a chance de se adaptar. A sociedade fez uma pausa em outras tecnologias com efeitos potencialmente catastróficos para a sociedade. Podemos fazer o mesmo aqui. Vamos aproveitar um longo verão de IA, não nos precipitarmos despreparados para o outono.
É importante enfatizar que conceitos, assim como instituições, importam. Pode parecer um pouco etérea a discussão conceitual, como discutir o sexo dos anjos, mas quando estamos lidando com regulação (e regulação de uma tecnologia como a Inteligência Artificial) é fundamental que tenhamos definido, com a maior precisão possível, qual o fenômeno se pretende regular.
E isso se faz mediante o uso de conceitos: o que é, afinal, essa tal de Inteligência Artificial? Não vamos aqui dar um conceito fechado — pois existem diversos conceitos técnicos e legais — mas enfatizamos um ponto: a depender de como é conceituada na regulação, isso pode implicar a sub-inclusão ou sobre-inclusão.
Mas o que é isso? Por traz desses termos aparentemente complexos, se esconde uma questão bastante prática. No primeiro caso (sub-inclusão) significa dizer que o conceito utilizado na regulação — por ser excessivamente singelo ou restritivo — deixou de fora sistemas e ferramentas que precisariam ser regulados, o que leva ao fenômeno do underenforcement: em outras palavras, uma resposta incompleta ao fenômeno que se pretende regular. No segundo caso (sobre-inclusão), a regulação passa a incluir coisas demais — uma vez que o conceito pode ser demasiadamente elástico ou genérico — o que onera excessivamente os regulados: nesse caso, estamos diante do overenforcement, a atuação excessiva do aparato regulatório.
Exemplos de conceitos de Inteligência Artificial
(traduzido por Felipe Roquete)
Organização para Cooperação e Desenvolvimento Econômico (OCDE). Disponível em: https://www.oecd-ilibrary.org/science-and-technology/explanatory-memorandum-on-the-updated-oecd-definition-of-an-ai-system_623da898-en
Um sistema de IA é um sistema baseado em máquina que, para objetivos explícitos ou implícitos, infere, a partir da entrada (input) que recebe, como gerar resultados (outputs), como previsões, conteúdo, recomendações ou decisões que podem influenciar ambientes físicos ou virtuais. Diferentes sistemas de IA variam em seus níveis de autonomia e adaptabilidade após sua implantação.
Artificial Intelligence Act (União Europeia)
https://artificialintelligenceact.eu
Sistema de IA é um sistema baseado em máquina projetado para operar com níveis variados de autonomia e que pode apresentar adaptabilidade após sua implantação e que, para objetivos explícitos ou implícitos, infere, a partir da entrada (input) que recebe, como gerar resultados (outputs), como previsões, conteúdo, recomendações ou decisões que podem influenciar ambientes físicos ou virtuais.
Projeto de Lei 2338/2023 (Brasil)
https://www25.senado.leg.br/web/atividade/materias/-/materia/157233
Sistema de inteligência artificial: sistema computacional, com graus diferentes de autonomia, desenhado para inferir como atingir um dado conjunto de objetivos, utilizando abordagens baseadas em aprendizagem de máquina e/ou lógica e representação do conhecimento, por meio de dados de entrada provenientes de máquinas ou humanos, com o objetivo de produzir previsões, recomendações ou decisões que possam influenciar o ambiente virtual ou real.
Se o próprio conceito de Inteligência Artificial já traz desafios, o desenho de uma proposta de regulação desta tecnologia exige que sejam superadas outras dificuldades, ainda maiores.
A mais relevante é a definição do problema regulatório que se pretende enfrentar. No caso da Inteligência Artificial, dada a amplitude de seu uso, isso implica fazer uma escolha: enfrentar todos os problemas regulatórios simultaneamente, ou escolher apenas alguns alvos?
Entre os possíveis problemas, podemos citar: impacto da Inteligência Artificial no mundo do trabalho; a potencialização de discriminação e vieses; o aumento do fenômeno da desinformação; o uso da tecnologia para vigilância e controle social; os impactos climáticos da tecnologia; os riscos geopolíticos; questões relacionadas à propriedade intelectual; ou os impactos concorrenciais.
Como é intuitivo perceber, cada um desses problemas regulatórios demandaria instrumentos e estratégias diferenciadas, bem como a mobilização de capacidades institucionais distintas (em termos de órgãos envolvidos, recursos organizacionais e financeiros, expertises das pessoas envolvidas etc.). Lidar, simultaneamente, com todos eles em um mesmo arcabouço regulatório pode representar uma decisão excessivamente ambiciosa.
Abaixo, reproduzo um texto sobre um desses problemas regulatórios: o de vieses e discriminação.
Inteligência Artificial, Valores e Incerteza: um problema insolúvel para a regulação?
Por Felipe Roquete
Revista Internet&Sociedade, volume 2, número 2, dez 2021
Disponível em: https://revista.internetlab.org.br/inteligencia-artificial-valores-e-incertezas-um-problema-insoluvel-para-a-regulacao/ )
Os casos apresentados partem do prosaico (por exemplo, as primeiras redes neurais comercialmente bem-sucedidas, utilizadas para ler os códigos postais manuscritos em cartas e os valores de cheques depositados em caixas automáticos), chegando ao trágico (o uso de algoritmos de classificação de imagens que são incapazes de identificar certos grupos sociais e que, quando implementados, implicaram situações de discriminação de gênero e raça), passando pelo anedótico (como ocorre nos sistemas que passaram regularmente a enganar seus desenvolvedores, em uma espécie de “jeitinho algorítmico”, atingindo os objetivos postos por intermédio de atalhos nada funcionais).
(…)
E tais elementos subjacentes representam o cerne da análise empreendida por Brian Christian, pois envolvem valores e normas que podem ser afetados potencialmente — e, em diversos exemplos descritos no livro, efetivamente o são — pelo uso de IA. Trata-se, portanto, de buscar estratégias para nos assegurarmos que os modelos de inteligência artificial capturem nossos valores e nossas normas, entendam o que quisemos dizer e pretendemos fazer e, acima de tudo, o que queremos, quais os nossos reais objetivos com o uso de tais ferramentas: tal seria o “problema do alinhamento” (de um lado, as tecnologias de uso pervasivo e de constituição opaca e, de outro, os valores e as normas que estão no cerne da convivência humana), que emergiu como das mais centrais e urgentes questões científicas da atualidade. E prevenir tal desalinhamento, tal divergência, significa evitar resultados catastróficos.
Isso porque sistemas de inteligência artificial são constituídos por modelos que possuem uma característica peculiar: sua utilização continuada e sem revisão pode reforçar e potencializar problemas preexistentes — como vieses e tratamentos discriminatórios —, pois sua estrutura é sujeita a efeitos de feedback loops. Em outras palavras, partindo de uma realidade na qual existam iniquidades que estejam, como usualmente estão, refletidas nas bases de dados que serão utilizadas por aqueles modelos, a implementação de sistemas de IA produz resultados que refletem os vieses originários e, como tais resultados retornarão ao sistema, agora como insumo para futuras análises e decisões, cristalizam-se aquelas iniquidades, em um círculo nada virtuoso de reiteração e confirmação de vieses. O modelo de IA, portanto, não apenas mimetiza, mas também, em longo prazo, muda a realidade na qual é utilizado, pois consolida e expande as situações de iniquidade preexistentes.
Mas tal diagnóstico não é unívoco, ou melhor, não resulta em uma única estratégia preferencial para lidar com o problema do alinhamento. Assim, seria possível identificar duas comunidades que predominariam entre pesquisadores, desenvolvedores e usuários na área de IA: de um lado, aquela que se preocuparia mais com os riscos éticos atualmente vivenciados, advindos do uso de tais tecnologias (por exemplo, a baixa acurácia de sistemas de reconhecimento facial ou os vieses de sistemas utilizados para implementação de políticas públicas) e, de outro, aquela que estaria mais focada nos perigos futuros, que surgiriam quando os sistemas de inteligência artificial se tornassem onipresentes e responsáveis por decisões que afetassem nossas relações privadas, nossa vida em sociedade e nossa relação com o Estado.
Tratam-se, portanto, de visões que estão, respectivamente, calcadas em avaliações baseadas nos conceitos de risco e de incerteza. Frank H. Knight (2021) elaborou tal definição que, em linhas gerais, diferencia realidades nas quais predomina o risco — em que seria possível calcular a probabilidade a priori da ocorrência de determinados fatos, por meio da indução com base na experiência e na avaliação empírica — de outras nas quais prevalece a incerteza, ou seja, quando a análise de riscos tradicional pode ser inadequada para tratar riscos não quantificáveis, dada a inexistência de bases válidas para classificar novos eventos, implicando a necessidade de realizar estimativas e, assim, de conviver com o erro.
Dessa forma, aqueles que privilegiam o enfrentamento dos riscos éticos dos sistemas de IA já em funcionamento supõem que o mundo é composto por elementos que, sob certas condições, sempre se comportarão de determinada maneira, o que, no limite, tornaria sempre possível calcular a probabilidade de ocorrência de determinados fenômenos.
Já o segundo grupo, que centra suas preocupações nos impactos de longo prazo do uso de sistemas de IA, reconhece a impossibilidade de calcular a probabilidade de ocorrência de eventos futuros, pois envolveriam riscos desconhecidos. Nesse caso, vigeria a ignorância quanto a problemas que sequer sabemos que existirão, que ainda nem sabemos formular ou para os quais talvez nem tenhamos vocabulário para exprimir.
Brian Christian nos apresenta, portanto, um cenário que baliza eventuais propostas de regulação de sistemas de inteligência artificial. Explica-se.
Se se parte da compreensão de que os efeitos deletérios do uso de sistemas de inteligência artificial para automação de tomada de decisão, tanto no setor privado quanto no setor público, são passíveis de estimação prévia, propostas de regulação estarão preparadas para lidar com problemas semelhantes aos que já foram identificados anteriormente: em outras palavras, conseguirão manejar ferramentas baseadas em riscos, forjando instrumentos regulatórios capazes de evitar que os mesmos erros se repitam no futuro. A governança regulatória, portanto, analisará o presente por intermédio de um olhar retrospectivo, no qual a incerteza não encontra guarida.
Mas se, como afirmou Frank Rosenblatt, referindo-se à possível utilidade do primeiro sistema de redes neurais, “o uso segue a invenção”, seria inviável antecipar quais os possíveis usos e, consequentemente, os resultados em termos de desalinhamento entre valores e tecnologia, do uso pervasivo de sistemas de IA. Quando o que queremos (e o que não queremos) é difícil de determinar direta e completamente, estamos diante de uma situação de ignorância e, portanto, instrumentos regulatórios precisam lidar com ambientes de incerteza. (…)
Ainda que o ponto de partida tenha sido delineado precisamente por Brian Christian — em uma tomada de decisão na qual há múltiplas e complexas etapas (como o processo de geração dos dados, a construção das bases de treinamento, a definição dos parâmetros do modelo, os testes e a sua implementação), abre-se espaço para que se crie uma cadeia de vieses, potencializada ao longo dos diversos elos do sistema de IA — tal tarefa, em que pese seu caráter incontornável, não esgota os desafios que nos são apresentados. (…)
Ao fim do percurso, restaria-nos perguntar se o problema do alinhamento, trazido pela inteligência artificial, não estaria apenas espelhando questões históricas cuja solução, no caso brasileiro, nos desafia há séculos. Nesse caso, a tecnologia estaria apenas ampliando — ou potencializando — uma imagem iníqua (distorcida, mas ainda assim um reflexo de nossa sociedade) que nos aterroriza, ou deveria nos aterrorizar a todos, desde tempos imemoriais.
No Brasil, o primeiro projeto para regulação de Inteligência Artificial foi construído a partir de audiências públicas organizadas por uma Comissão de Juristas constituída pelo Senado Federal. Nessa proposta, buscava-se uma regulação bastante abrangente (ou seja, abarcando todos os sistemas de Inteligência Artificial que se encaixassem no conceito proposto na lei), baseada em uma matriz de riscos: a inspiração do modelo europeu, portanto, era clara.
O projeto, ainda que tenha sido substituído pelo PL 2338/2023, representou o primeiro esboço de uma regulação compreensiva da Inteligência Artificial no Brasil.
Inteligência artificial, regulação e a Comissão de Juristas do Senado
Por Felipe Roquete
Revista Internet&Sociedade, volume 2, número 2, dez 2021
Disponível em: https://www.jota.info/artigos/inteligencia-artificial-regulacao-e-a-comissao-de-juristas-do-senado)
A Comissão de Juristas instituída pelo Senado Federal para subsidiar a elaboração de minuta de substitutivo para os projetos de lei que visam à regulação da inteligência artificial (IA), divulgou seu relatório final no último dia 6 de dezembro.
Com 912 páginas, o relatório consiste em um belo exemplo de transparência (ao apresentar todo seu histórico de funcionamento e os documentos-chave), de participação social (ao consolidar insumos oriundos de audiências públicas e contribuições escritas recebidas) e de busca da motivação racional da proposta apresentada (ao definir os temas relevantes e buscar exemplos do que outros países estão desenvolvendo).
Diversas são as dimensões relevantes na proposta da comissão, mas creio que valeria a pena destacar três pontos que impactarão sua eventual implementação, bem como apontar um tema que mereceria um tratamento mais detido.
O primeiro ponto refere-se ao conceito de inteligência artificial trazido pela proposta. É importante ressaltar que a própria decisão de apresentar um conceito, dada a virtual inexistência de um consenso acerca do que seriam sistemas de inteligência artificial, é uma característica marcante da ambição (consequente, ressalte-se!) da minuta.
Se, de um lado, a existência de um conceito possibilita que a regulação tenha previamente definidos seu escopo e abrangência – o que dá concretude aos princípios da segurança jurídica e da transparência – de outro lado, eleva, simultaneamente, os riscos de sobre-inclusão e sub-inclusão da norma, o que pode atingir os princípios da previsibilidade e da efetividade da atuação estatal.
À primeira vista, o conceito proposto, ao citar “abordagens baseadas em aprendizagem de máquina”, assume o risco de fornecedores e operadores de inteligência artificial desenvolverem estratégias para contornar a classificação de suas aplicações como passíveis de regulação. Em outras palavras, ao apresentar dimensões específicas para construção conceitual – no caso, as técnicas de aprendizagem de máquina – é criada uma oportunidade para que futuros regulados se evadam da regulação: bastaria, para tanto, que suas aplicações não utilizassem, direta e/ou nominalmente, as técnicas que definem seu enquadramento no conceito legal.
E, dada a assimetria informacional entre aqueles agentes e a (futura) autoridade competente, não é negligenciável a probabilidade de surgirem controvérsias – inclusive, judiciais – nas quais os fornecedores e operadores do sistema busquem excluir do conceito seus sistemas de IA. Aqui, portanto, o conceito implicaria o caráter sub-inclusivo da norma, ou seja, a não inclusão, na regulação, daquelas aplicações consideradas relevantes.
Da mesma forma, ao incluir no conceito “abordagens baseadas em (…) lógica e representação do conhecimento”, a norma torna tão abrangente seu escopo que diversas aplicações passariam a ser objeto da regulação, mesmo que sejam irrelevantes em termos dos objetos jurídicos que se pretende proteger. Aqui, o caráter sobre-inclusivo da norma poderia sobrecarregar a autoridade e trazer ônus regulatório excessivo para os agentes de inteligência artificial.
Não há solução fácil nesse continuum entre sobre-inclusão e sub-inclusão, pois exige que seja realizada uma ponderação entre aqueles valores – segurança jurídica, transparência previsibilidade e efetividade da atuação estatal – relevantes para o arcabouço regulatório. Ressalte-se, contudo, que os integrantes da Comissão de Juristas aceitaram enfrentar tal dilema, de forma transparente e fundamentada.
O segundo ponto trata da opção pela regulação baseada em risco. Trata-se de uma estratégia que, a partir da definição ex ante de um rol de temas sensíveis, busca criar instrumentos regulatórios adequados para enfrentar seus possíveis impactos.
No caso da minuta apresentada, decidiu-se pela criação de duas categorias de risco – excessivo e alto – que implicam, no primeiro caso, o banimento de aplicações de IA (ou seja, sua proibição) e, no segundo caso, a necessidade de estratégias de mitigação de riscos como condicionantes para sua implementação (por intermédio, por exemplo, de regras de governança e da elaboração de Avaliações de Impacto Algorítmico).
O ponto central, aqui, refere-se ao suposto forte assumido pela Comissão de Juristas: de que seria possível, a priori, realizar o cálculo dos riscos, em outras palavras, da probabilidade de ocorrência de determinados fatos, a partir da indução com base na experiência e na avaliação empírica.
Ainda que exista uma casuística sobre impactos deletérios advindos do uso acrítico de sistemas de IA junto a determinados grupos sociais, parece-nos que estamos diante, na verdade, do uso envergonhado do princípio da precaução. Em outras palavras, a proposta apresentada denota que haveria um determinado conjunto de aplicações que – dada sua sensibilidade social, política e/ou econômica – exigiria a cautela máxima por parte do Estado. Dessa forma, havendo incerteza quanto aos resultados (em outras palavras, diante de riscos não-quantificáveis, dada a inexistência de bases válidas para classificar novos eventos) pressupõe-se que serão deletérios e, portanto, decide-se por proibir e/ou estabelecer critérios estritos para o uso de determinadas tecnologias.
Lidar com incertezas exige instrumentos regulatórios específicos, que não se confundem com aqueles utilizados em ambientes nos quais é possível o cálculo acurado de riscos. Nesse sentido, é fundamental delinear corretamente cada cenário, para que os atores possam tomar as decisões mais adequadas para cada realidade.
O terceiro ponto consiste na sugestão de designação de uma autoridade específica para regular os sistemas de inteligência artificial.
É louvável a lição de pragmatismo da proposta, ao estabelecer que a União deveria designar a autoridade competente, sem determinar a criação de um órgão específico.
Contudo, a batalha institucional, ainda que adiada, está longe de ter sido vencida, principalmente no que se refere à organização da futura autoridade. Não são negligenciáveis os desafios de (re)construção de um órgão que venha a ter as capacidades institucionais – em termos de recursos organizacionais, tecnológicos, humanos etc. – que lhe permita (i) realizar uma interlocução qualificada – e minimamente equilibrada – com os fornecedores e operadores de sistemas de IA e (ii) atender à diversidade de ônus estabelecidos pela proposta, tais como os informacionais (artigo 7º) e os procedimentais (artigo 8º e 9º).
Em termos organizacionais, são claros os riscos de designação de uma autoridade que não seja provida com os meios adequados para cumprir as determinações regulatórias: não apenas o impacto reputacional, mas principalmente a dificuldade de reversão de aplicações implementadas que tenham produzido resultados deletérios.
Finalmente, há um tema que é importante destacar, pelos desafios de longo prazo que apresenta. A comissão optou por uma abordagem prudente no que se refere à estratégia regulatória a ser adotada, pois não ficou adstrita a instrumentos baseados em comando e controle, tampouco decidiu pelo uso exclusivo de instrumentos fundados na regulação responsiva, na autorregulação ou na co-regulação.
A minuta apresenta uma tentativa de utilizar as estratégias mais adequadas para cada dimensão do problema regulatório, conformando uma abordagem híbrida. Contudo, tal estratégia híbrida traz um ônus adicional para a autoridade competente para a regulação, principalmente no que concerne ao desafio de compatibilizar instrumentos diversos e, simultaneamente, implementa-los em um ambiente institucional complexo.
Em outras palavras, a autoridade competente necessitará implementar aqueles instrumentos em uma realidade na qual há outras agências reguladoras setoriais – que baseiam suas atuações em abordagens regulatórias potencialmente incompatíveis ou divergentes – trazendo uma camada adicional de complexidade à sua atuação, pois aqui surgirá o nada trivial desafio da coordenação interinstitucional.
O poder não aceita vácuo. Diante da lentidão do Congresso Nacional para aprovar (ou não) o Projeto de Lei que propõe a regulação da Inteligência Artificial, o Tribunal Superior Eleitoral aprovou, em 2024, uma Resolução para mitigar os riscos de desinformação, desenvolvida com base em Inteligência Artificial, nas eleições municipais de 2024.
Podemos afirmar que a Resolução consistiu na primeira “regulação setorial de Inteligência Artificial” no Brasil, que buscava impedir seu uso para manipulação de imagens, vídeos e áudio, bem como a criação de conteúdos falsos com base em Inteligência Artificial (as chamadas deep fakes).
RESOLUÇÃO TSE Nº 23.732, DE 27 DE FEVEREIRO DE 2024
(Disponível em: https://www.tse.jus.br/legislacao/compilada/res/2024/resolucao-no-23-732-de-27-de-fevereiro-de-2024 )
Art. 9º-B. A utilização na propaganda eleitoral, em qualquer modalidade, de conteúdo sintético multimídia gerado por meio de inteligência artificial para criar, substituir, omitir, mesclar ou alterar a velocidade ou sobrepor imagens ou sons impõe ao responsável pela propaganda o dever de informar, de modo explícito, destacado e acessível que o conteúdo foi fabricado ou manipulado e a tecnologia utilizada.
§ 1º As informações mencionadas no caput deste artigo devem ser feitas em formato compatível com o tipo de veiculação e serem apresentadas:
I – no início das peças ou da comunicação feitas por áudio;
II – por rótulo (marca d’água) e na audiodescrição, nas peças que consistam em imagens estáticas;
III – na forma dos incisos I e II desse parágrafo, nas peças ou comunicações feitas por vídeo ou áudio e vídeo;
IV – em cada página ou face de material impresso em que utilizado o conteúdo produzido por inteligência artificial.
§2º O disposto no caput e no §1º deste artigo não se aplica:
I – aos ajustes destinados a melhorar a qualidade de imagem ou de som;
II – à produção de elementos gráficos de identidade visual, vinhetas e logomarcas;
III – a recursos de marketing de uso costumeiro em campanhas, como a montagem de imagens em que pessoas candidatas e apoiadoras aparentam figurar em registro fotográfico único utilizado na confecção de material impresso e digital de propaganda.
§ 3º O uso de chatbots, avatares e conteúdos sintéticos como artifício para intermediar a comunicação de campanha com pessoas naturais submete-se ao disposto no caput deste artigo, vedada qualquer simulação de interlocução com a pessoa candidata ou outra pessoa real.
§ 4º O descumprimento das regras previstas no caput e no § 3º deste artigo impõe a imediata remoção do conteúdo ou indisponibilidade do serviço de comunicação, por iniciativa do provedor de aplicação ou determinação judicial, sem prejuízo de apuração nos termos do § 2º do art. 9º-C desta Resolução.
(…)
Art. 9º-C É vedada a utilização, na propaganda eleitoral, qualquer que seja sua forma ou modalidade, de conteúdo fabricado ou manipulado para difundir fatos notoriamente inverídicos ou descontextualizados com potencial para causar danos ao equilíbrio do pleito ou à integridade do processo eleitoral.
§ 1º É proibido o uso, para prejudicar ou para favorecer candidatura, de conteúdo sintético em formato de áudio, vídeo ou combinação de ambos, que tenha sido gerado ou manipulado digitalmente, ainda que mediante autorização, para criar, substituir ou alterar imagem ou voz de pessoa viva, falecida ou fictícia (deep fake).
3. DEBATENDO
A leitura dos textos acima, bem como eventual complementação realizada a partir dos textos sugeridos na seção 4, permitirão que seus alunos tenham insumos para debater ativamente em sala de aula. Além disso, é sempre importante alavancar os debates a partir de temas contemporâneos: não se esqueça que seus alunos, certamente, estão recebendo, diariamente, conteúdos e notícias sobre Inteligência Artificial.
Uma estratégia interessante é solicitar que os alunos (um grupo deles, ou apenas um aluno designado por aula) traga uma notícia recente sobre Inteligência Artificial, pedindo que ele, além de resumir a notícia, estabeleça relações entre seu conteúdo e temas abordados nas aulas anteriores: por exemplo, se a notícia possui uma abordagem mais otimista ou pessimista sobre a tecnologia? Se a notícia destaca possíveis danos e indica necessidade de reação do Poder Público, ou enfatiza os benefícios da tecnologia? A notícia indica um problema pontual (possivelmente solucionado pela legislação já existente) ou traz um problem novo?
Algumas perguntas também pode ser feitas pelo professor para aferir como os alunos compreenderam os principais conceitos e as ideias contidas nos textos já lidos.
- Depois de ler o texto de Lessig, compare-o com os argumentos apresentados por Easterbrook: considerando o contexto no qual os textos foram escritos (nos primórdios da internet, quase 25 anos antes do lançamento do ChatGPT), qual deles vocês acham que se aproximou mais da posição dominante no debate jurídico atual sobre a relação entre Direito e novas tecnologias?
- Vocês acreditam que é possível que o Direito acompanhe a evolução das novas tecnologias? Existiriam instrumentos para tornar a regulação flexível a ponto de acomodar o desenvolvimento inerente às novas tecnologias?
- Se olharmos para a História, alguma tecnologia de propósito geral gozou dos privilégios defendidos por Marc Andreessen? Vocês consideram que é viável (política, social e economicamente) não interferir no desenvolvimento de determinada tecnologia?
- Você acredita que seria viável uma pausa (de 1 mês, de 6 meses ou de 1 ano, qualquer período) no desenvolvimento de uma determinada tecnologia? Em caso positivo, tal pausa seria “neutra” em termos econômicos (ou seja, traria benefícios ou prejuízos iguais para todos os agentes econômicos e para a sociedade)?
- Quais são as principais diferenças entre os três conceitos de Inteligência Artificial apresentados? E as semelhanças? Vocês acham que é mais provável que eles levem à sub-inclusão ou à sobre-inclusão? Pesquisar o conceito de Inteligência Artificial utilizado na Ordem Executiva 13960/2020 dos Estados Unidos (https://www.federalregister.gov/documents/2020/12/08/2020-27065/promoting-the-use-of-trustworthy-artificial-intelligence-in-the-federal-government) e compara-lo aos conceitos apresentados.
- Nas notícias que têm lido sobre Inteligência Artificial, vocês acham que prevalece uma perspectiva otimista, pessimista ou neutra sobre os impactos da tecnologia? Vocês acreditam que isso pode impactar o desenho da regulação (caso não tenha sido ainda aprovada no Brasil) ou da forma de aplicação das normas regulatórias (caso já tenha sido aprovada no Brasil)?
- Vocês acreditam que as leis já existentes no Brasil seriam suficientes para lidar com os impactos da disseminação da Inteligência Artificial? Por exemplo: para lidar com problemas de discriminação e vieses? E para lidar com problemas de propriedade intelectual? E impactos concorrenciais?
- Consultando os repositórios sobre incidentes e danos causados por sistemas de Inteligência Artificial (https://incidentdatabase.ai/ e https://www.aiaaic.org/aiaaic-repository), quais são os temas/problemas mais recorrentes? Você acredita que a solução para esses problemas está no desenho de regulações mais precisas ou no aperfeiçoamento da tecnologia?
- A Resolução TSE 23.732/2024 do TSE consistiu em uma “regulação setorial” (regular o uso indevido da Inteligência Artificial nas eleições brasileiras). Você considera que essa abordagem é mais efetiva do que uma regulação abrangente? Quais você considera os pontos positivos e negativos de uma regulação setorial?
4. APROFUNDANDO
Alguns textos interessantes sobre Inteligência Artificial e regulação:
ACEMOGLU, Daron; JOHNSON, Simon. Power and Progress: Our Thousand-year Struggle Over Technology and Prosperity. New York, PublicAffairs, 2023.
BAPTISTA, Patrícia; KELLER, Clara Iglesias (2016). Por que, quando e como regular as novas tecnologias? Os desafios trazidos pelas inovações disruptivas. Revista De Direito Administrativo, 273, 123–163. https://doi.org/10.12660/rda.v273.2016.66659
BELLI, Luca; GASPAR, Walter B.; CURZI, Yasmin. AI Regulation in Brazil: advancements, flows and need to learn from the data protection experience. In Computer Law and Security Review: Special Issue on Artificial Intelligence and Data Protection in Latin America. (2022). Disponível em: https://www.sciencedirect.com/journal/computer-law-and-security-review/special-issue/10SD06FBTBZ
BRADFORD, Anu. Digital Empires: The Global Battle to Regulate Technology. New York, Oxford University Press, 2023.
COCKFIELD, Arthur.; PRIDMORE, Jason. A A Synthetic Theory of Law and Technology, 8 MINN. J.L. SCI. & TECH. 475 (2007). Disponível em: https://scholarship.law.umn.edu/mjlst/vol8/iss2/8
CROOTOF, Rebecca; ARD, BJ. Structuring Techlaw. SSRN Electronic Journal, 2020.
IAPP. International Definitions of Artificial Intelligence, Report, 2023. Disponível em: https://iapp.org/resources/article/international-definitions-of-ai/
MAAS, Matthijs; VILLALOBOS RUIZ, Jose Jaime. International AI Institutions: A Literature Review of Models, Examples, and Proposals (September 22, 2023). AI Foundations Report 1, Disponível em: https://ssrn.com/abstract=4579773.
(ii) Outras fontes de informação sobre Inteligência Artificial e novas tecnologias:
InternetLab: newsletter semanal gratuita, com temas relacionados a novas tecnologias (inscrição em https://internetlab.org.br/pt/newsletter/)
Nicholas Thompson (jornalista, com passagens pela Wired e The New Yorker, atualmente CEO da The Atlantic): newsletter mensal gratuita em inglês, com temas relacionados a novas tecnologias (inscrição em https://www.nickthompson.com/) e vídeos curtos gratuitos sobre “a coisa mais interessante sobre tecnologia no dia”, quase diários, divulgados no LinkedIn (https://www.linkedin.com/in/nicholasxthompson/)
Algorithm Watch: newsletter gratuita, em inglês, sobre questões de transparência e governança de Inteligência Artificial (inscrição em: https://algorithmwatch.org/en/newsletter/)
Site da OCDE (em inglês) sobre iniciativas de regulação de Inteligência Artificial: https://oecd.ai/en/dashboards/overview
Site da Universidade de Stanford (em inglês) que traz traduções de regulações de novas tecnologias aprovadas pela China: https://digichina.stanford.edu/