Capítulo de livro: Futuros Possíveis | Book Chapter: Possible Futures

futuros_livrofutures_book

Autores: Ana Pato, André Stolarski, Annet Dekker, Arianne Vanrell Vellosillo, Christiane Paul, Cicero Inacio da Silva, Daniela Kutschat Hanns, Domenico Quaranta, Gabriela Previdello Orth, Gerfried Stocker, Gilbertto Prado, Guilherme Kujawski, José Luis de Vicente, Lucas Bambozzi, Manuela Naveau, Monika Fleischmann e Wolfgang Strauss, Oliver Grau, Patricia Kunst Canetti, Paula Alzugaray, Rudolf Frieling
Organizadores: Ana Gonçalves Magalhães, Giselle Beiguelman

Matéria da Agência FAPESP de hoje sobre CineGrid Brasil 2014

Visualização do mapa das conexões neurais do cérebro do projeto Connectome, dos NIH, na “caverna virtual” da University of Illinois at Chicago (foto: EVL)

Cinema estimula avanço da visualização científica

Link: http://agencia.fapesp.br/cinema_estimula_avanco_da_visualizacao_cientifica/19846/

19 de setembro de 2014

Por Elton Alisson

Agência FAPESP – Quando o diretor de cinema norte-americano George Lucas escreveu o roteiro do primeiro filme da série Guerra nas Estrelas (1977), ele planejava utilizar computação gráfica em uma das cenas principais, o ataque à estação espacial Estrela da Morte.

Mas na época a computação gráfica ainda começava a ser explorada por empresas de efeitos especiais, como a Industrial Light & Magic, fundada pelo próprio Lucas em 1975.

A solução tecnológica para a cena foi encontrada no Laboratório de Visualização Eletrônica (EVL, na sigla em inglês) da University of Illinois at Chicago (UIC), nos Estados Unidos. Na época, pesquisadores da instituição desenvolviam um sistema de computação gráfica para auxiliar químicos a fazer modelagem molecular. Com ele, era possível fazer as animações tridimensionais que Lucas pensava para o filme.

“Desenvolvíamos projetos de visualização científica, oferecendo computadores e softwares para químicos elaborarem modelos moleculares”, disse Maxine Brown, diretora do EVL, em uma palestra durante o CineGrid Brasil, congresso internacional realizado nos dias 28 e 29 de agosto no teatro da Faculdade de Medicina da Universidade de São Paulo (FMUSP).

“O diretor de fotografia do filme [o britânico Gilbert Taylor (1914-2013)] veio ao nosso laboratório e adaptou o sistema de modelagem molecular em parceria com os pesquisadores para criar a apresentação do plano de ataque à Estrela da Morte mostrada no filme”, afirmou.

A tecnologia de visualização científica desenvolvida pela instituição para fins científicos foi uma das várias que acabaram inspirando a ficção e chegando às telas dos cinemas.

Por outro lado, conceitos de visualização computacional imaginados e apresentados pela primeira vez em filmes também motivaram os pesquisadores da instituição a desenvolver soluções com propósitos científicos.

“A ciência influencia o cinema e vice-versa”, avaliou Brown. “Quando as pessoas veem algumas tecnologias desenvolvidas no nosso laboratório logo pensam que são cenografia para filmes de ficção científica. Em contrapartida, muitas coisas que vemos no cinema e ainda são ficção científica inspiram os nossos cientistas.”

O ambiente de realidade virtual “Holodeck”, apresentado pela primeira vez na série de televisão Jornada nas Estrelas, lançada em 1987, motivou os pesquisadores a desenvolver, em 1992, a Cave Automatic Virtual Enviroment (Cave), um sistema de projeção de realidade virtual.

A “caverna virtual” é uma sala no formato de um cubo na qual são emitidos sons e projetadas imagens tridimensionais em três paredes e no chão do ambiente, visualizadas por meio de óculos estereoscópicos (com visão binocular).

O usuário pode explorar o cenário projetado ao se movimentar dentro do cubo e manipular os objetos tridimensionais com um controle com três botões.

“A cave foi projetada para ser uma ferramenta útil à visualização científica e, quando foi lançada, começaram a chamá-la deHolodeck [de holografia]”, contou Brown. “Ela teve diferentes aplicações, como em um projeto de reconstituição virtual do bairro do Harlem [em Nova York] no período de 1920 a 1930.”

Nova versão

Em 2012, os pesquisadores do EVL lançaram uma nova versão da caverna digital, a Cave2. Inspirado na “sala de guerra” do filmeDr. Fantástico, de Stanley Kubrick (1928-1999), lançado em 1964, o ambiente de realidade virtual tem cerca de 24 metros de diâmetro e 8 metros de altura e é composto por uma única parede curva com mais de 70 telas de cristal líquido (LCD) sensíveis ao toque (touch screen).

A sala oferece aos usuários uma visão panorâmica de 320 graus de imagens com resolução de 37 megapixels (milhões de pixels) em 3D ou 74 megapixels em 2D projetadas na parede de telas de LCD.

A parede de telas pode ser utilizada tanto para a exploração de simulações de realidade virtual como para análises de grandes volumes de imagens colocadas lado a lado.

As imagens são visualizadas em conjunto e tocadas e manipuladas com os dedos por meio de uma tecnologia de exploração interativa de dados visuais, desenvolvida no EVL nos últimos anos cinco anos, inspirada no filme de ficção científica Minority Report, de Steven Spielberg, de 2002.

No longa, o personagem interpretado pelo ator norte-americano Tom Cruise usa luvas especiais e gestos para manipular arquivos de imagem, áudio e outros dados projetados em uma tela transparente.

“A parede de telas da Cave2 também permite misturar imagens e dados, como gráficos, de um mesmo problema que um grupo de pesquisadores está tentando solucionar para que possam analisá-los de uma forma global”, disse Brown.

De acordo com a pesquisadora, o ambiente de realidade virtual está sendo utilizado no Projeto Batman, do EVL, chamado assim em alusão a uma cena do filme Batman: o cavaleiro das trevas, dirigido por Christopher Nolan e lançado em 2008, em que o personagem Lucius Fox, interpretado pelo ator norte-americano Morgan Freeman, monitora a ocorrência de crimes na cidade fictícia de Gotham em uma parede curva de monitores.

O projeto tem o objetivo de visualizar os dados de criminalidade de Chicago – como os locais onde ocorrem crimes com maior frequência – para ajudar a polícia e os tomadores de decisão a desenvolver ações mais efetivas de combate ao crime.

“Reproduzimos toda a cidade de Chicago por meio de imagens de satélite fornecidas pelo Google Maps e projetamos na tela da Cave2”, disse Brown. “Ao fazer isso, os serviços de inteligência podem visualizar diversas áreas da cidade ao mesmo tempo e fazer comparações sobre locais onde ocorrem mais crimes, por exemplo, o que não era possível antes.”

Aplicações científicas

Segundo Brown, a Cave2 também tem sido utilizada para grandes projetos científicos nos Estados Unidos, como o Human Connectome Project.

Lançado em 2009 pelos National Institutes of Health (NIH), o projeto pretende identificar e mapear todas as conexões neuronais de um cérebro humano adulto.

Algumas das imagens de redes neurais já produzidas por equipamentos de ressonância magnética têm sido analisadas no ambiente de realidade virtual.

“A Cave2 possibilita que os neurologistas possam analisar o funcionamento do cérebro por meio de imagens de ressonância magnética com um nível de detalhe muito maior do que se conseguia”, afirmou Brown.

Mais recentemente, um grupo de pesquisadores do Programa de Ciência e Tecnologia em Astrobiologia para Exploração de Planetas (Astep, na sigla em inglês), da agência espacial dos Estados Unidos (Nasa), começou a usar o ambiente de realidade virtual para avaliar os resultados de testes em campo de um veículo autônomo submarino projetado para explorar a superfície de gelo na lua Europa – uma das quatro luas do planeta Júpiter.

Denominado Endurance, o robô foi projetado para navegar sob o gelo, coletando dados e amostras da vida microbiana e mapeando o ambiente subaquático para a produção de mapas tridimensionais.

A fim de prepará-lo para a missão – que deverá ocorrer após 2020 –, os pesquisadores fizeram uma série de testes em campo em lugares como o Lago Bonney na Antártica, que tem uma cobertura de gelo permanente.

Os dados coletados pelo robô na Antártica foram transmitidos ao EVL para a geração de imagens tridimensionais, mapas e representações de dados do lago.

Os pesquisadores do laboratório criaram, então, uma ferramenta para a visualização simultânea de centenas de imagens georreferenciadas e em alta resolução da camada de gelo que cobre o lago. Com isso, é possível estudar, por exemplo, a distribuição de sedimentos presos na superfície do gelo.

“A reunião dos engenheiros que projetaram o robô com os cientistas envolvidos na coleta de dados do projeto na sala de realidade virtual permite que eles entendam os problemas uns dos outros e estudem soluções de forma conjunta”, avaliou Brown.

First 4k ophthalmological surgery transmission from UNIFESP to USP

No dia 29 de agosto de 2014 a Faculdade de Medicina da USP presenciou, durante o CineGrid Brasil 2014, a primeira transmissão de uma cirurgia oftalmológica na resolução 4K. A cirurgia foi realizada no departamento de Oftalmologia da Universidade Federal de São Paulo (UNIFESP) e transmitida e captada em 4K para o Auditório central da Faculdade de Medicina da USP.

Foi a primeira vez que uma cirurgia de catarata e correção de miopia foram captadas microscopicamente e transmitidas nessa resolução (4096 x 2160 a 24 fps).

Hom

4k_3d_Telemedicina_Oftalmo_Unifesp_PEQ        4k_ophtalmic_unifesp

CineGrid Brasil 2014

cinegridbr

Anote na agenda: o CineGrid Brasil 2014 acontece este ano na Faculdade de Medicina da Universidade de São Paulo (USP) nos dias 28 e 29 de agosto em parceria com a RSA (Reunião Semestral da ANSP), que comemora 25 anos.

O site do CineGrid é: www.cinegridbr.org e informações por meio do e-mail: cinegridbr@usp.br .

SAVE THE DATE: CineGrid Brazil 2014 will take place at University of São Paulo Medical School from Aug 28th to the 29th.

Take a look at our website: www.cinegridbr.org and info at cinegridbr@usp.br .

Novo capítulo de livro

livro_mobile_2 livro_mobile_contra

O livro Mobile 2.0 acabou de ser lançado e conta com um capítulo meu escrito em parceria com Brett Stalbaum e Jane de Almeida, sobre mídias locativas intitulado Fronteras, territorios, espacios y subjetividades en la cultura del software y la movilidad. O livro é editado pelo Consejo Nacional para la Cultura y las Artes / Centro Multimedia (CENART) e publicado pela Secretaria de Educação Pública do México.
ISBN: 978-607-516-022-1
Organização: Amaranta Sánchez, Leonardo Aranda, Tania Pereda e Adrián Segovia
Textos de Amaranta Sánchez, Leonardo Aranda, Mariela Yeregui, Cicero da Silva, André Lemos, Ricardo Dominguez, Amy Sara Carrol, Jane de Almeida, Claudio Bueno, Brett Stalbaum e Nacho Durán.

The Routledge Companion to Remix Studies

Remix_Companion_Routledge_9780415716253

I am glad to introduce my new chapter of a book that will be featured at the The Routledge Companion to Remix Studies, edited by Eduardo Navas, Owen Gallagher and xtine burrough.
Take a look at the TOC: http://www.routledge.com/books/details/9780415716253/#contents

Em breve estará no ar um dos mais amplos estudos sobre o Remix, o The Routledge Companion to Remix Studies, editado por Eduardo Navas, Owen Gallagher e xtine burrough. Sou um dos autores de um dos capítulos sobre a história do Remix, com ênfase na questão autoral. Em resumo, trata-se de um Derrida-mix sobre o nome próprio e a autoria no Remix.

A lista completa de artigos com seus respectivos autores pode ser acessada aqui:
http://www.routledge.com/books/details/9780415716253/#contents

software studies/digital media/mídia digital/cultural analytics