MENU
PTEN
Trienal de Arquitectura de Lisboa
Data
18 MAI 2022 - 22 JUN 2022
Horário
18:30
Local
Palácio Sinel de Cordes
Preço
Gratuita
Edição
Participantes
Wendy Hui Kyong Chun, Bram Büscher, Nick Srnicek, Paola Torres Núñez del Prado
Co-Produção
Organização CADA em parceria com a Trienal de Arquitectura de Lisboa 

Estrutura financiada por: República Portuguesa – Cultura / Direção-Geral das Artes

Apoios: Câmara Municipal de Lisboa, DINAMIA’CET (ISCTE-IUL) e NOVA LINCS através de fundos da FCT.IP

Design: Marco Balesteros (LETRA)

Fotografia: Joana Linda 

Som: LAMS

Informação adicional
Entrada livre, mediante registo aqui.

Human Entities 2022 © Marco Balesteros

Human Entities 2022

Ciclo de conversas

A 6.ª edição de Human Entities, a cultura na era da inteligência artificial, uma iniciativa do grupo artístico CADA, regressa ao Palácio Sinel de Cordes (Campo de Santa Clara, 142-145, Lisboa) em Maio e Junho de 2022, com um programa de conversas públicas focado na mudança tecnológica e nos seus impactos, nas formas como a tecnologia e a cultura se influenciam mutuamente.
A entrada é livre mediante registo prévio aqui.

"Embora a verdade tenha sido sempre contestada, nos últimos anos, o conhecimento tácito que serve de terreno comum a partir do qual argumentamos, tornou-se cada vez mais reduzido, como se a realidade consensual estivesse lentamente a desvanecer-se. É difícil dizer se a crise epistémica é uma ideia exagerada ou se é de facto a consequência da negação da ciência, da teoria pós-moderna ou do capitalismo contemporâneo.

Embora a rádio e a televisão continuem a ser grandes difusores, os meios de dizer a verdade mudaram. A ascensão das redes sociais, baseadas na extração de dados, é um fenómeno sem precedentes. E embora a relação destas plataformas com a pós-verdade possa não ser directa, os novos feedback loops entre as nossas vidas sociais, culturais e políticas, devem seguramente desempenhar um papel – assim como o impacto que as tecnologias de inteligência artificial (IA) por detrás dessas plataformas têm nos nossos processos cognitivos colectivos. O nosso objectivo não é descobrir se as redes sociais são boas ou más – claro que são as duas coisas. Para a produção e distribuição cultural as vantagens são, desde logo, claras.

O programa Human Entities 2022 irá debruçar-se sobre o modo como os algoritmos usados ​​para agrupar indivíduos com ideias semelhantes reforçam as nossas visões do mundo, sendo deliberadamente concebidos para fomentar a divisão. Iremos também discutir a pós-verdade enquanto produto do capitalismo de plataforma e examinaremos o modo como as recentes batalhas entre um pequeno número de empresas que pretendem dominar o mercado de IA reflectem uma transformação estrutural no poder global. O evento deste ano continua a procurar visões alternativas mais equitativas e ainda o modo como a prática experimental na arte sonora pode oferecer uma saída." CADA (Jared Hawkey/Sofia Oliveira)

Programa

Quarta, 18 de Maio 2022, 18.30
#NatureTruthPower: Política ambiental na era da pós-verdade e das plataformas digitais
Bram Büscher

Como é que devemos partilhar a verdade acerca da crise ambiental? Num momento em que até os factos mais básicos sobre ecologia e clima são contestados e desprezados, os defensores do meio ambiente encontram-se num impasse. Alguns viraram-se para as redes sociais e para as tecnologias digitais para mudar a corrente. E se esta estratégia não for apenas ineficaz, como também perigosa?

Nesta apresentação, Bram Büscher mostra como a acção ambiental é transformada através da economia política das plataformas digitais e dos feeds algorítmicos que têm sido cruciais para o surgimento da política da pós-verdade. Baseando-se numa nova compreensão da pós-verdade como uma expressão de poder sob o capitalismo de plataforma, Büscher mostra como os agentes ambientais são mediadores entre as formas estruturais de poder de plataforma e a contingência das questões ambientais em lugares específicos. Central para a compreensão dessa mediação é a reconfiguração das relações entre natureza, verdade e poder no século XXI. Tudo isto resulta na necessidade de uma política ambiental que renove radicalmente a arte de dizer a verdade ao poder.

Bram Büscher é Professor e Director do Grupo de Sociologia do Desenvolvimento e Mudança na Universidade de Wageningen e Professor Convidado do Departamento de Geografia, Gestão Ambiental e Estudos de Energia da Universidade de Joanesburgo. 

O seu trabalho de investigação e a sua escrita debruçam-se sobre economia política do ambiente, com enfoque na biodiversidade, conservação, novos media, digitalização e violência. Desenvolveu o conceito de Natureza 2.0, que se foca na economia política dos novos media e nas suas implicações para a participação na conservação da natureza. É autor dos livros Transforming the Frontier: Peace Parks and the Politics of Neoliberal Conservation in Southern Africa (2013), co-autor, com Robert Fletcher, de The Conservation Revolution: Radical Ideas for Saving Nature Beyond the Anthropocene (2020) e The Truth About Nature: Environmentalism in the Era of Post-Truth Politics and Platform Capitalism (2021).

Quarta, 1 de Junho 2022, 18.30
A Economia Política da IA
Nick Srnicek

A economia política da inteligência artificial é fundamental para o futuro dos actuais gigantes tecnológicos. No entanto, quando olhamos para a pesquisa existente sobre o impacto da IA ​​na economia, quase toda a atenção se tem focado no que podemos chamar canal de automação/produtividade, discutindo-se essencialmente sobre se, quando e como o alargamento do machine learning irá automatizar e/ou aumentar os empregos existentes. Muito menos atenção tem sido dada ao modo como a natureza da IA actual poderá facilitar a concentração de capital. Esta conversa examinará o impacto da centralização da IA ​​sob o controlo das maiores plataformas planetárias e questionará se outras alternativas poderão ser possíveis.

Nick Srnicek é Professor Convidado de Economia Digital no Departamento de Humanidades Digitais do King's College London. O seu mais recente livro, Platform Capitalism (2016), estabelece um enquadramento para a compreensão das novidades dos negócios como a Google, Amazon e Alibaba, bem como do modo como as plataformas digitais geram novas tendências nas nossas economias. Actualmente, o seu trabalho de investigação mantém o mesmo foco, examinando a economia política da IA ​​e olhando para o modo como (para além da automação) a IA afectará a dinâmica do capitalismo contemporâneo. O trabalho de Nick insere-se na longa tradição da política anti-trabalho. O seu primeiro livro, Inventing the Future (2015, com Alex Williams), foi uma tentativa de elaborar uma política anti-trabalho no contexto das mudanças tecnológicas modernas. O seu próximo livro, After Work: The Fight for Free Time (2023, com Helen Hester), procura expandir a política anti-trabalho no campo da reprodução social, olhando para o modo como o trabalho, muitas vezes não remunerado, de limpar, cozinhar e cuidar pode ser reconhecido, redistribuído e reduzido.

Quarta, 22 de Junho 2022, 18.30
Artist talk
Paola Torres Núñez del Prado

À semelhança do que se costuma dizer sobre os migrantes, as máquinas autónomas são tidas como uma potencial ameaça a um certo trabalho humano. Em ambientes militares, esses sistemas e a sua eficiência podem, de facto, ser mais letais do que os que são controlados por pessoas. Esta ideia permite-nos regressar à definição fundamental de inteligência desde a Revolução Industrial, profundamente ligada à ideia de eficiência-enquanto-produtividade (e subsequente prevenção de erros), definição que é herdeira de um certo tipo de racionalidade (com origem no Iluminismo) que coloca a inteligência no topo de uma hierarquia onde, por conseguinte, todos os outros sistemas de pensamento humano estão abaixo. Problemas ligados à gestão do ambiente natural (onde outras culturas humanas "não racionais" foram encontradas desde então) foram resolvidos através da dominação e até da aniquilação. Agora vemos como alguns sistemas de IA continuam esse legado.

Nesse sentido, AIELSON [um modelo de machine learning que Torres treinou para gerar poesia spoken-word] reflecte sobre o zeitgeist, incorporando uma crítica complexa onde o sistema está profundamente ligado à humanidade (como reflexo) na medida em que as imperfeições não são descartadas, mas abraçadas, algo que, por sua vez, contradiz a ideia de inteligência como o epítome da eficiência e perfeição sem falhas. Assim, Torres propõe que falemos de Criatividade da Máquina. Como é que essa criatividade informa a imaginação humana agora? Podemos começar a imaginar outro futuro de possível cooperação entre humanos e máquinas, onde o Mundo Natural deixe de ser visto como um território a ser conquistado?

Paola Torres Núñez del Prado parte da exploração dos limites dos sentidos para examinar os conceitos de interpretação, tradução e deturpação, reflectindo sobre as experiências sensoriais mediadas que, ao (re)construírem a nossa percepção da realidade, servem para estabelecer uma hegemonia cultural na história da Tecnologia e das Artes. Recentemente, recebeu uma Menção Honrosa no Prix Ars Electronica com AIELSON, um sistema desenvolvido durante a sua residência no programa da Google Artists + Machine Intelligence. As suas performances e obras de arte, que também fazem parte das colecções do Malmo Art Museum e da Public Art Agency of Sweden, têm sido apresentadas em vários países das Américas, Europa Central e Escandinávia, onde vive actualmente. 

Esta conversa é organizada em parceira com ICLI 2022 - Internacional Conference on Live Interfaces. Imagem: Jonas Pajari. Agradecimentos: Alex Mclean

Data por Anunciar
Discriminating -data, uma conversa com Wendy Hui Kyong Chun    

Em Discriminating Data [2021, Dados Discriminatórios], Wendy Hui Kyong Chun mostra como a polarização é um objectivo – não um erro – do big data e do machine learning. Os métodos usados, defende, codificam a segregação, a eugenia e as políticas de identidade através das suas assunções e condições por defeito. A correlação, que fundamenta o potencial de previsão do big data, deriva das tentativas eugénicas do século XX para “procriar” um futuro melhor. Os sistemas de recomendação promovem grupos zangados de semelhança através da homofilia. Através de uma política e tecnologia de reconhecimento, os utilizadores são “treinados” para se tornarem autenticamente previsíveis. Deste modo, a análise de dados e o machine learning tentam perturbar o futuro tornando a perturbação impossível.  

Nesta conversa, Chun discutirá os temas do livro com Andrea Pavoni, investigador auxiliar no Centro de Investigação DINAMIA’CET do ISCTE, e com a audiência. 

Wendy Hui Kyong Chun é investigadora e professora, tendo recebido a Cátedra Canadá 150 em Novos Media na Universidade Simon Fraser, onde dirige o Digital Democracies Institute. Estudou Engenharia de Sistemas e Literatura Inglesa, que combina no seu trabalho actual em media digitais, e é autora dos livros Control and Freedom: Power and Paranoia in the Age of Fiber Optics (2006), Programmed Visions: Software and Memory (2011), Updating to Remain the Same: Habitual New Media (2016) e, mais recentemente, Discriminating Data (2021).