I.A., ética & a arte no capitalismo
Considerações breves sobre o livro "Ética na inteligência artificial", de Mark Coeckelbergh, e as discussões sobre a produção artística de IAs generativas
Em dezembro do ano passado, recebi o livro Ética na Inteligência Artificial, de Mark Coeckelbergh, da assinatura do Circuito Ubu. Terminei há alguns dias e resolvi escrever algumas considerações sobre o livro e sobre algumas justificativas que me incomodam nas sobre Inteligência Artificial e produção artística e criativa porque parece que não chegam no principal ponto do problema — e já aviso que me empolguei um pouco sobre o tema. Depois comentem o que pensam sobre o assunto.
Mas, antes de chegar lá, se você ainda não for inscrito, não deixe de colocar seu e-mail no botão abaixo para não perder nenhuma edição. Caso seja, o botão também permite um upgrade na assinatura para apoiar e garantir a continuidade da Ponto Nemo — se preferir, também temos a página no Financiamento Coletivo no Catarse.
Além do mais, concluo a tese daqui duas semanas. De um lado, vai ser ótimo para ampliar a produção da newsletter; do outro, a bolsa de estudos vai acabar, então… seria um ótimo momento para contribuir com a Ponto Nemo!
Ética na inteligência artificial
Em janeiro, terminei a leitura de Ética na inteligência artificial, escrito por Mark Coeckelbergh (com tradução de Clarisse de Souza, Edgar Lyra, Matheus Ferreira e Waldyr Delgado). O livro foi enviado pelo Circuito Ubu — clube de assinatura da editora — e faz parte da Coleção Exit, focada em reflexões contemporâneas que permeiam diversas áreas das humanidades.
Mark Coeckelbergh faz um panorama básico sobre Inteligência Artificial (IA) para explicar como funciona uma IA e mostrar quais fatores precisam ser levados em consideração, desde os mais notáveis e conhecidos, como os de vigilância e controle, até os mais complexos, sobre as dificuldades de responsabilização e a relação complexa entre humanos e inumanos.
Em primeiro lugar, Coeckelbergh apresenta como a IA está cada vez mais presente e como isso, de certa forma, mexe com nossa percepção sobre o sentido da vida. Ele escreve que:
Darwin e Freud destronaram nossas crenças de excepcionalismo, nossos sentimentos de superioridade e nossas fantasias de controle; hoje, a inteligência artificial parece desferir mais um golpe na autoimagem da humanidade. Se uma máquina pode fazer isso, o que nos resta? O que somos? Somos apenas máquinas? Somos máquinas inferiores, com muitos bugs? O que será de nós?
Gosto de visualizar essa questão a partir do que Donna Haraway escreveu em Quando as espécies se encontram, classificando como a quarta Grande Divisão — a quarta ferida narcísica. A primeira ferida foi feita por Copérnico, que retirou a Terra do centro do universo; ao inserir a criação do humano dentro do fluxo evolutivo-histórico, Darwin provocou a segunda ferida; a terceira, removendo o humano do posto de “senhor da própria casa”, foi feita por Freud, ao apontar a existência de processos inconscientes. Haraway adiciona a quarta ferida, “a informática ou ciborguiana, que envolve a carne orgânica e a tecnológica, assim fundindo também a Grande Divisão”.
Maria Esther Maciel apontaria, em Animalidades, que a quarta ferida diz respeito ao humano compreender que não é a única existência com subjetividade. Parece-me que é esse estatuto que entra em crise: a evidência de outras formas de pensamentos e consciências e a evidente fragilidade dos binômios Natureza/Cultura.
A presença cada vez maior das IAs generativas — inteligências artificiais que criam novos conteúdos a partir dos antigos em formatos variados, como texto, imagem, vídeo, som, etc., tendo no ChatGPT e no Midjourney seus grandes exemplos — gerou uma certa crise. Vi amigos e colegas artistas refletindo sobre o propósito da criação, de como e quem vai fazer arte, além das questões políticas e econômicas que envolvem a apropriação do material artístico pelas IAs e a qualidade deles.
Mas, antes de retomar essas questões no próximo tópico, Mark Coeckelbergh evidencia que as questões existenciais não estão divorciadas das questões éticas, porque, se a IA foi feita sob um suposto pretexto de progresso, é progresso para quem? Em outras palavras, como escreve Coeckelbergh, “quando a tecnologia é moldada apenas por poucas megacorporações. Quem molda o futuro da IA?”
Por isso, seu próximo passo é retirar parte do véu de misticismo e paranoia e abrir espaço para problemas éticos mais concretos e urgentes. Por exemplo, falamos muito da superinteligência da IA, como se ela pudesse emular um cérebro ou tivesse um aperfeiçoamento autônomo tão poderoso que permitisse alcançar ou superar a capacidade humana em um ponto de singularidade tecnológica em pouquíssimo tempo (e como se a inteligência humana fosse parâmetro, o auge da evolução… mas enfim, essas são considerações minhas.).
Apesar da euforia, especulação e medo, é preciso colocar o pé no chão. Além do fato de muitos pesquisadores apontarem que “a IA é menos promissora do que muitos presumem”, Coeckelbergh aponta que “essa discussão sobre os impactos futuros (distantes) da IA nos distrai dos riscos reais e atuais de sistemas já disponíveis. Parece haver um risco real de que, em um futuro próximo, os sistemas não sejam inteligentes o bastante e que nós não entendamos suficientemente suas implicações éticas e sociais e, apesar disso, venhamos a utilizá-los amplamente” — e penso principalmente em como adotamos as redes sociais e o formato smartphone sem antes refletir sobre diversas questões éticas, como o design viciante e o sequestro de informações pessoais, e que até hoje estão em um estado semi-adormecido.
Mark Coeckelbergh aponta que parte do medo vem de uma formação “frankensteiniana”, que enxerga uma competição entre o criador e a criatura; nas tramas de exploração entre robôs escravizados e seus donos; nas narrativas que enxergam o corpo como um empecilho para a ascensão da alma. Acrescentaria também que (1) há também o orgulho como um problema, a hubris grega do mortal atreve-se a desejar a centelha divina; (2) o Outro ser incorporado na literatura como monstros, robôs, alienígenas para diversos propósitos — bestializar, afastar, desumanizar — ou seja, um medo que envolve a libertação/vingança do oprimido.
Ou seja, a busca por narrativas não “frankensteinianas”, um dos caminhos que Mark Coeckelbergh sugere para sair dos termos da competição para a cooperação, não envolve apenas novas narrativas, mas novas estruturas sociais. De qualquer forma, a outra sugestão é “ir além da hipervalorização e não limitar a discussão ética na IA aos sonhos e pesadelos de um futuro distante” e focar em (1) examinar os pressupostos do que é a IA e o que é ser humano; (2) analisar o que as IAs fazem e quais suas aplicações, de forma concreta; (3) discutir problemas urgentes do ponto de vista ético-social atual, como o problema do viés; (4) pensar em políticas de IA para um futuro próximo e como aplicá-las; e (5) refletir se o foco atual nas IAs e suas capacidades técnicas é benéfico ou se não devíamos dar espaço para outras questões, como o impacto climático dessas pesquisas?
Cinco pontos em Coeckelbergh
É partindo dos cinco pontos descritos acima que Coeckelbergh estrutura Ética na Inteligência Artificial. Como ponto de partida, em uma perspectiva filosófica, ela evidencia como a própria concepção do que é ser humano é limitada, com tradições que trabalham com o binômio mente-corpo ou com a noção de que o cérebro é como uma máquina.
Para Mark Coeckelbergh, os pensadores pós-humanistas, como a já citada filósofa estadunidense Donna Haraway, obtém sucesso ao evidenciar dois pontos distintos nessas complicações: (1) A quebra na hierarquia centrada no humano. Como escreve, “Os não humanos não precisam ser semelhantes a nós e não devem ser semelhantes a nós”. Sendo assim, “a IA pode se libertar do fardo de imitar ou reconstruir o humano e pode explorar diferentes tipos não humanos de ser, de inteligência, de criatividade e assim por diante”. (2) Em segundo lugar, mostra como a tecnologias é parte da existência humana, algo que compõe nossa existência híbrida (ou ciborgue). Queria evidenciar algo que não está presente no livro e permeia parte do pensamento pós-humanista que é a fragmentação dos termos dualistas modernos, entre corpo/mente, razão/emoção e, principalmente, natureza/cultura. (Há uma entrevista bacana com Fernando Silva, promovida pelo IHU Unisinos, sobre a obra Jamais fomos modernos, de Bruno Latour, que versa sobre o assunto. Você pode conferir em texto e em vídeo.).
Se as IAs não são humanas, e tampouco se pautariam por questões humanas, então como pensar a moralidade da IA? Coeckelbergh elenca dois princípios para levar a questão em consideração. O primeiro deles, a agência moral, deixa uma série de dúvidas sobre o assunto: as IAs conseguem avaliar as consequências das suas ações pelo ponto de vista humano? Conseguimos identificar como as IAs fazem essas escolhas? Aliás, passar valores humanos é bom e ideal?
O segundo princípio, o da suscetibilidade moral, troca o ponto de vista e faz com que as IAs não sejam quem desfere o chute, mas que é chutada… quer dizer, é ético agredir IAs? Podemos desligadas? A questão é que, como diz Coeckelbergh, uma parte significativa do problema é que
o modo pelo qual questionamos o status moral é problemático. O raciocínio moral mais comum sobre status moral é fundamentado nas propriedades morais relevantes que as entidades têm — por exemplo, consciência ou senciências. Mas como sabemos se uma IA possui certas propriedades morais relevantes ou não? Estamos seguros quanto a isso no caso de seres humanos? O cético diz que não. No entanto, mesmo sem essa certeza epistemológica ainda atribuímos status moral a seres humanos com base na aparência.
Ou seja, a atribuição de status moral deriva da relação afetiva cotidiana, como, por exemplo, o fato de que gatos e cachorros domésticos não tem o mesmo status moral que insetos. É uma lógica cuja naturalização da situação esconde algo ainda mais problemático, porque, “antes de realizarmos nosso raciocínio sobre o seu status moral de fato, já o posicionamos e talvez até já tenhamos cometido alguma violência, tratando-o como objeto de nossa tomada de decisão e nos colocando como deuses poderosos, centrais, oniscientes e dotados do direito de conferir status moral a outros entes sobre a Terra”, escreve Coeckelbergh (e se isso parece fantasioso ou uma besteira, pense em diversos grupos sociais humanos que tiveram a revogação do status moral por outros grupos… uma revogação que, inclusive, muitas vezes os associa a insetos e outros animais, em um duplo fator de violência).
Depois da questão filosófica, Mark Coeckelbergh se volta para a parte prática do funcionamento, explicando termos, capacidades e tipos diferentes de IAs de acordo com suas especializações. Ao que nos interessa aqui, vale ressaltar o processo de aprendizado, que não é nada mais, nada menos do que um processo estatístico, reconhece padrões e trabalha a partir dos agrupamentos e categorizações — de forma “não supervisionada”, gerando agrupamentos sozinha, ou “por reforço”, que é quando há uma intervenção humana para evidenciar bons e maus resultados (como uma matéria evidenciou a situação precária dos trabalhadores que treinam as IAs). Sendo assim, parte importante da capacidade dessas IAs está proporcionalmente relacionado à eficiência da categorização e ao acesso a um grande banco de dados.
O primeiro problema evidente é que, se a plataforma precisa de bancos de dados gigantescos, é preciso ter… bancos de dados gigantescos. Parece uma coisa boba, mas não é, porque se relaciona diretamente com a forma que usamos a internet. Não é um segredo, mas plataformas como a Meta existem porque nós, usuários, produzimos conteúdo gratuito o tempo inteiro.
A gente posta fotos, escreve, faz dancinha por vários motivos e todos eles legítimos: para se conectar, para trabalhar, para conversar, para se divertir… mas, no fundo, somos uma mão-de-obra não-remunerada, aperfeiçoando e refinando nossos filtros de gosto para que as empresas consigam vender anúncios mais personalizados de volta para nós. É simples. Além da coleta predatória de dados (e da escolha nada ética dos designs viciantes), há vendas para terceiros sem a devida notificação ao usuário (quando você pensar “puxa, qual a utilidade da Lei Geral de Proteção de Dados?”, lembre-se disso).
Outro problema é a coleta indiscriminada e automatizada de material acessível pela internet — como veremos mais abaixo, fonte do conflito com a classe artística cujo material foi sugado por essas diretrizes de treinamento sem nenhum tipo de remuneramento pelo trabalho artístico.
Coeckelbergh aponta que, além das questões de coleta de dados, há uma dificuldade no quesito de atribuição de responsabilidades quando as IAs cometem erros. Os processos não são claros ou vagarosos o bastante para a intervenção humana; tampouco as IAs tem uma consciência do que fazem e, portanto, não podem ser moralmente responsável. Como escreve Coeckelbergh, “máquinas podem ser agentes, mas não agentes morais, se falta a elas consciência, livre-arbítrio, emoções, aptidão para formar intenções e outras condições similares”. Dessa forma, algoritmos e máquinas se tornam arresponsáveis. Como fator agravante, as IAs são feitas por diversas pessoas por um longo período de tempo em um trabalho integrado, difícil de apontar culpados.
Para Mark Coeckelbergh, “a solução é responsabilizar os seres humanos por algo feito pela IA, presumindo que eles sabem o que a IA está fazendo e o que eles estão fazendo com a AI, e — lembrando o aspecto relacional — que eles são capazes de responder pelas ações da IA e explicar o que ela fez”. Ou seja, há uma grande chance de que nem saibamos o que estamos fazendo.
O perigo não é somente o da manipulação e dominação pelos capitalistas ou elites tecnocráticas, criando uma sociedade altamente dividida. O perigo subsequente e talvez mais profundo que surge aqui é o de uma sociedade altamente tecnológica, na qual nem mesmo essas elites saibam mais o que estão fazendo e ninguém mais responda pelo que está acontecendo.
Outro problema no funcionamento das IAs é a questão do viés. Não é incomum ver notícias sobre o assunto, como algoritmos com respostas racistas ou bots com declarações antissemitas, e parte do motivo é porque parte da eficiência das IAs parte do espelhamento do mundo real… e aqui penso faltar um posicionamento mais assertivo do autor. Coeckelbergh afirma:
O que os cientistas da computação podem fazer quanto a isso? Devem tornar os conjuntos de dados de treinamento mais diversificados, talvez até criando dados e bases ‘idealizadas’, como Eric Horvitz (da Microsoft) sugeriu? Ou as bases de dados devem espelhar o mundo? Os desenvolvedores devem incorporar a discriminação positiva em seus algoritmos, ou criar algoritmos “cegos”?
O que acho estranho é a posição de questionar se o viés deveria ser eliminado, como se o desenvolvimento da IA se apresenta como uma certeza imutável. Se ao longo do livro Coeckelbergh mostra o uso de IA em julgamentos, vigilância, em armamento autônomo e suas vítimas, parece estranho afirmar — e destaco: “A questão é que tipo de sociedade e de mundo queremos, se devemos tentar mudá-los e, em caso afirmativo, que formas de fazê-lo são aceitáveis e justas”.
Então o que está em jogo na desconstrução do viés? O fato de não conseguirmos pensar em um mundo mais justo dentro desse sistema econômico que, justamente, possibilita a pesquisa em IAs? Tanto que, em seguida, Coeckelbergh destaca a relação social com o trabalho, evidenciando que nossa “preocupação com a destruição do emprego pressupõe que o trabalho é o único valor e a única fonte de renda e sentido”. Sendo assim, o autor aponta que “poderíamos desvincular trabalho de renda, ou melhor, o que consideramos ‘trabalho’ do que consideramos renda. Muitas pessoas fazem trabalho não remunerado no lar e no cuidado de crianças e idosos” e, para isso, algumas medidas poderiam ser tomadas, como a “renda básica” universal.
Mas o incentivo para uma concepção menos alienada do trabalho toma outro rumo e Coeckelbergh avalia outros pontos de vista, e sugere que,
mais do que isso, talvez o trabalho não seja necessariamente um fardo que precise ser evitado ou uma exploração a que devamos resistir; outra perspectiva seria a de que o trabalho tem valor, dá propósito e sentido ao trabalhador, e traz vários benefícios, como conexões sociais, pertencimento a algo maior, saúde e oportunidades para exercer responsabilidade. Se for esse o caso, talvez devêssemos reservar o trabalho para os seres humanos — ou pelo menos alguns tipos de trabalho, trabalho que tenha um propósito e ofereça oportunidades para que esses benefícios sejam realizados.
A hesitação de Coeckelbergh tomar posicionamentos mais rígidos em questões sociais, econômicas ou políticas parece se justificar quando ele destaca que faltam equipes mais interdisciplinares e transdisciplinares durante o desenvolvimento de IA. Com um posicionamento fluído, imagino que o autor queira atingir diversos perfis intelectuais, sanar a “lacuna de formação e entendimento entre, de um lado, pessoas das humanidades e ciências sociais e, de outro, pessoas das ciências naturais e engenharia, tanto dentro quanto fora da academia” e evidenciar para cada um dos perfis a importância de pesquisar novas tecnologias e a necessidade de se atentar a aspectos éticos e sociais durante o processo.
Por fim, a questão que encerra o livro é
A ética em IA é somente sobre o bem e o valor dos seres humanos, ou também devemos levar em conta valores, bens e interesses não humanos? E, mesmo se a ética na IA for principalmente sobre seres humanos, será possível que a questão ética na IA não seja o problema mais importante para a humanidade tratar?
Desde as leis de Asimov, temos princípios de robótica que priorizam a vida de seres humanos. Dentro do contexto de catástrofe climáticas, o desenvolvimento de IA não nos dá prioridade demais? Não aumenta nosso controle sob a terra? Não deveriamos considerar, antes do desenvolvimento, o consumo energético dessas tecnologias?
Ética & arte de IA
Por fim, antes que fique ainda mais longo, quero compartilhar um incômodo que surge quando as discussões sobre a capacidade de fazer arte pela IA — principalmente porque as questões param no âmbito estético da coisa, como se o problema fosse “não ter alma”, ser “feio” ou ter traços “autorais de IA”. No entanto, me parece que a arte feita pela IA é, antes de tudo, um problema ético e não estético.
Antes de tudo, não gosto da concepção da arte como algo espiritual ou demasiadamente humano. Parte da discussão de Ursula K. Le Guin e Vinciane Despret, que apontei no texto Tinta de polvo em tabuleta de pedra, é justamente sobre a impossibilidade dos humanos pensarem como outras inteligências inumanas. Podemos inventar dispositivos para ler campos magnéticos, mas não somos capazes de vê-los e isso muda drásticamente nossa visão de mundo; jamais saberemos como é pensar em um corpo com novo cérebros e ainda não temos certeza de como a estética influencia, por exemplo, a escolha dos pares de acasalamento dos pássaros
A arte como algo unicamente humano só faz sentido se você levar em consideração, por exemplo, o valor de comunicação, intencionalidade, criatividade, questionamento e etc. para as obras artísticas… mas e se esses não forem os valores balizadores? e se mexerem com percepções que a gente não conhece? e se…?
Não quero comparar a Inteligência Artificial como algo vivo, mas apontá-la como uma existência inumana que relaciona-se conosco (A vontade das coisas, de Monique David-Ménard, aponta nossa relação complexa com os objetos).
Assim, não nego a possibilidade de a arte surgir dessa relação com códigos-fontes, assim como Tristan Tzara cortava pedaços de jornal e, tirando os recortes ao acaso, fazia poesias dadaístas. O ready-made tinha como pressuposto o deslocamento to material manufaturado do âmbito cotidiano para o espaço da arte — como o mictório de Duchamp, que se transforma em uma fonte.
Meu primeiro ponto, então, parte procura responder o primeiro nível da discussão — de que a IA não faz arte porque é feio, porque dá para ver, porque não tem a centelha de intencionalidade do humano. Entendendo que é possível criar arte por esse deslocamento, que a teoria do belo/feio é relativa e que outras inteligências podem criar arte.
Agora, se um dia não for possível identificar a autoria humana/robótica, for boa e bela para o padrão e estiver em conjunto com uma intencionalidade humana, o problema da IA artista está resolvido? Parece que não… já que muito se fala sobre plágio e roubo de criação artística — como apontado no tópico do banco de dados.
Quando a produção artística das IAs explodiu, diversos artistas (principalmente o das artes visuais) denunciaram como as empresas utilizaram de forma indevida suas criações para o treino das inteligências, um uso que gerou bastante lucro para as empresas, mas nada para o artista. Uma iniciativa que teve bastante destaque foi a do coletivo Spawning, que produziu um site para os artistas descobrirerem se tiveram o trabalho utilizado pelas IAs.
Para os artistas, parte da preocupação com a IA não é apenas a de ter o seu posto de trabalho ocupado, mas também a sua produção pré-existente utilizada de forma indevida e não autorizada dentro dos processos — não bastando ter o trabalho desvalorizado e com prejuízos a longo prazo, mas a curto prazo também.
Para lidar com esse problema, algumas empresas, como a Adobe, inseriram um campo de “eu autorizo minha arte para treinar a IA de vocês” . A Adobe, inclusive, vendeu diversas imagens sobre o conflito entre Israel e Palestina que reforçavam estereótipos e abriam uma margem para o uso das artes como “fotos” para campanhas de desinformação. Artes obtidas e treinadas de forma legal e autorizada, diga-se de passagem. Outro exemplo pode ser visto em parte dos motivos para as greves de Hollywood, que era o uso — consentido, claro!, como os termos de uso aplicativos… aceite ou saia — de atores gerados por IA, uma preocupação ecoada pelos roteiristas, vislumbrando uso das tecnologias em seu roteiro.
Com o problema do plágio e apropriação indevida resolvido, com IAs sendo treinadas de forma legal e dentro da lei, por que a conta ainda não fecha? Quero abrir um parênteses para responder essa pergunta.
Mark Fisher, ao falar sobre a produção de arte no Realismo Capitalista, ecoa um ensaio do T.S. Eliot para evidenciar que
o novo se define como resposta ao canônico e, ao mesmo tempo, o canônico tem que se reconfigurar em resposta ao novo. A exaustão do futuro nos priva do passado. A tradição não tem valor se ela não é mais contestada e modificada. Uma cultura meramente preservada não é cultura.
Enquanto sistema, o capitalismo é extremamente plástico e maleável. Engoliu e englobou tudo que tinha ao seu redor. Até o que é anti-capitalista já nasce dentro do sistema, funcionando sob sua lógica. Tal falta de contato com o outro, com o novo, com o diferente, com outra proposta de mundo e sociedade (e também sua impossibilidade) que nos coloca num fluxo de repetição artística, de manutenção dos mesmos gêneros discursivos (quantos livros vemos fora do formato do romance, por exemplo?), das mesmas narrativas. É por isso que hoje em dia tanto se fala de pastiche, remake, releitura, adaptações…
Mas, sabe o que ele também coloca em jogo dentro dessa equação? A precarização dos artistas e das suas possibilidades de pagar as contas. Inserido dentro da Inglaterra, Fisher vê no fim da estruturação de um projeto de bem-estar social, na eleição de Margaret Thatcher, no aumento do preço de alguéis, do distânciamento de uma sociedade confortável pelo consumo, em suma, na estruturação da nova faceta do capitalismo como conhecemos hoje, a criação de um cenário em que é impossível a dedicação intelectual e artística como nos tempos antigos.
Uma asfixia cultural, sim, mas sobretudo econômica. Por isso meu incômodo (e que agradeço ao
, da , porque compartilhamos a mesma picuinha) de resumir a problemática ao uso estético ou à legalidade das imagens. Nos moldes de hoje, a IA generativa pressupõe um banco de dados composto por trabalhadores precarizados: material em grande quantidade, de preferência em boa qualidade, para baratear e facilitar os custos de criação artística, medida que, a longo prazo, coloca os artistas na mesma situação precária já evidenciada por Fisher — autoalimentação e falta de estruturas que possibilitem o surgimento do novo.O uso das IAs generativas é, portanto, uma discussão que não perpassa o campo estético — ou não deveria, por enquanto —, porque está muitíssimo mal resolvida no campo que me parece anterior: o ético.
Obrigado por ler até aqui!
Se você gostou da edição, compartilhe com alguém que possa gostar. É de grande ajuda!
Além disso, você pode conferir a campanha de financiamento coletivo no Catarse — ou assinar pelo Substack — e ter acesso antecipado aos textos das Anemonações.
Se você recebeu esse texto de alguém, não deixe de se inscrever e conferir as outras edições em Ponto Nemo — também temos um Arquivo Interativo, para você checar as temporadas completas.
Outras produções estão disponíveis no Estantário e você pode me ouvir falando de literatura no podcast 30:MIN.
Se quiser conversar, pode responder esse e-mail ou me encontrar no Instagram.
Nos últimos 15 dias, eu… não participei de nenhum podcast e nem publiquei outros textos. Estou no período de conclusão da tese e só retomo as produções paralelas em fevereiro.
excelente a edição!