Arquivo da categoria: research/pesquisa

Earth Computing Workshop na UCSD

Cluster computacional de Orange Pi´s a energia solar instalados no Earth Computing Initiative da UCSD em Calzona, California.
Prof. Brett Stalbaum e Cicero Silva
Prof. Brett Stalbaum e Cicero Silva

Entre os dias 29 de agosto e 02 de setembro fui convidado para ministrar o curso “Earth Computing” na Universidade da Califórnia em San Diego (UCSD). O convite partiu do Walkingtools Lab, hospedado no CALIT2 da UCSD. O workshop apresentou o projeto de um cluster computacional que vem sendo desenvolvido por mim em parceria com o Prof. Brett Stalbaum e com pesquisadores do San Diego Supercomputer Center da UCSD e do Laboratório (ver aqui: http://ucsdnews.ucsd.edu/pressrelease/sdsc_uses_meteor_raspberry_pi_cluster_to_teach_parallel_computing).

San Diego Supercomputer Center na UCSD

A proposta é criar um cluster computacional de baixo custo para pesquisas experimentais com sensores remotos, com o objetivo de conectar e obter dados a partir dos sensores em localidades distantes a um baixo custo. O cluster inicialmente é composto por 10 Orange Pi´s e seu funcionamento é a energia solar, com um setup de baterias Tesla que permitem que os computadores continuem funcionando por 3 horas durante a noite.

O objetivo do projeto é criar formas alternativas de envio de dados que não necessitem de energia elétrica e conexão à internet convencional. Além disso, o cluster utiliza a rede de telefonia para envio dos dados, com baixa taxa de transferência de dados, tendo em vista que os sensores não necessitam de grande quantidade de tráfego de dados. Outro tópico que está sendo experimentado, em substituição à telefonia celular, que possui alto custo, é o envio de dados por ondas de rádio em freqüencias abertas de FM (rádio amador). Os cluster computacionais e seus sensores foram instalados em uma localidade remota, na região de Big River, na Caliórnia, e são acessíveis por rádio a distância. O projeto tem como objetivo analisar a viabilidade de novas formas de envio de dados, a partir de sensores, que possibilitem a conectividade e acesso à internet por meio de propostas de baixo custo, ou que utilizem tecnologias que, apesar de existentes, não são utilizadas por serem consideradas obsoletas. Os campos de aplicação do projeto tem sido aplicações na área de sensoreamento remoto de dados metereológicos e, mais recentemente, foi criado um sistema de envio de dados médicos do condado de Calzona, aonde não existe suporte de saúde para os residentes, para o sistema de saúde municipal na cidade de Big River.

Workshop sobre o projeto Earth Computing na UCSD

earth_computing_station_03
Clusters computacionais de 10 computadores Orange Pi’s conectados, por meio de um modem SIMCard 3G, à internet e com energia elétrica gerada a partir de placas solares.

earth_computing_station_01 earth_computing_station_02

Na semana de 29/08 a 02/09 farei um Workshop sobre o projeto Earth Computing a convite da Universidade da Califórnia, San Diego (UCSD). O evento tratará da criação de clusters computacionais de baixo custo utilizando computadores de baixa performance Orange Pi’s alimentados a energia solar. O projeto já está em fase de testes e dois protótipos já funcionam em localidades remotas no deserto da Califórnia. O sistema de administração dos clusters é o mesmo utilizado em computação de alta performance em supercomputadores, no caso a plataforma Hadoop.
O objetivo do projeto é criar servidores de baixo custo que possam rodar queries simples em uma base de dados complexa, por meio da utilização de computadores que custam menos de 10 dólares cada (35 reais). A utilização de uma plataforma de computação distribuída como a Hadoop tem o objetivo de otimizar ao máximo a performance de buscas utilizando protocolos computacionais de inteligência artificial de alta complexidade e, ao mesmo tempo, utilizar recursos computacionais de baixo custo, cortando custos como energia elétrica, por exemplo, já que os clusters funcionam a energia solar e não necessitam de refrigeração. É importante notar que este é um projeto experimental e, portanto, não busca obter resultados consistentes de performance comparados a um computador que gasta centenas de milhares de reais ou dólares anualmente em energia elétrica, tanto para manter seus processadores funcionando quanto para manter sua infraestrutura refrigerada, como é o caso nas grandes empresas de computação de serviços distribuídos, que hoje resfriam seus computadores em datacenters localizados em containers posicionados no fundo do oceano.

CineGrid Brasil team shows Ophthalmic Laser Surgery @ CineGrid Workshop 2015

Jpeg

 

[en] Teams from the Digital Video Applications Laboratory (LAViD) of the Federal University of Paraíba (Universidade Federal da Paraíba – UFPB), Mackenzie University and the São Paulo Federal University (Universidade Federal de São Paulo – Unifesp) have displayed images of the first laser eye surgery captured with a camera capable of shooting 1000 frames per second at 4K resolution, an ultra-high resolution standard, during the CineGrid, held at the University of California, San Diego (UCSD). The demonstration allowed the audience to clearly see the laser acting on the cornea of the patient, which cannot be seen with the naked eye.

The video was captured and reproduced uncompressed, at 1000 frames per second (fps), in a transmission rate above 100 Gbps. In addition to that, the images were also shown seamlessly with the Collaboration and Visualization Panel (Sage), a project of the Electronic Visualization Laboratory (EVL) at the University of Chicago, USA. The images of the eye surgery were recorded with a special Phantom camera, capable of producing about one Terabyte (TB) of data every three minutes.

The capture of these images was carried out by teams from the Cinematic Arts Laboratory (LabCine) of Mackenzie University, and the Telessaúde Brasil Redes Laboratory, at Unifesp. From the beginning, the project has been supported by RNP as part of the activities of the Committee for Technological Forecasting in Video Collaboration.

The session was attended by an audience comprising researchers and representatives from research centers and educational institutions from Brazil, the US, Japan and other countries.

Scientific Connection

According to the Unifesp researcher, Cicero Inacio da Silva, the development of this technology will enable residents in ophthalmology, engaged in the field of refractive surgery, to observe the laser acting on the patient, in order to view its effects on the cornea.  The ideia is to create the proper conditions so, in the near future, surgeries are broadcasted to several locations, assisting the training of medical residents in ophthalmology.

He said that one of the challenges announced by the Brazilian team during the 2015 CineGrid is to live broadcast a surgery captured at 1000 fps, at 4K, in the next CineGrid, to be held in San Diego in December 2016. The challenge will require approximately 120 Gbps of dedicated connectivity, directly attached to the camera, which does not exist yet between Brazil and the United States, but could be developed soon, so this scientific connection is established in the fields of telemedicine, telehealth, video collaboration and advanced visualization.

Fogo Player

One the technologies that have enabled this successful experience at the CineGrid was the Fogo Player, a software package created by LAViD researchers, which makes possible the projection of videos at 4K resolution, and in 3D (stereoscopy), providing many possibilities of use in sports events, shows and surgical procedures for purposes of continuous education in telemedicine.

Another special feature of the Fogo Player system is to enable the instantaneous communication between those involved in the broadcasted event and the audience, which stresses the importance of its use in distance learning.  The project has been developed since 2001, with the support of the RNP.

Links for the image of the presentation @ CineGrid San Diego 2015: https://goo.gl/photos/9mMLHtag6zhrssRn7
Link for the images of the film capture at UNIFESP: https://goo.gl/photos/7LE8FVDCWx2MKffE7

Media: RNP website: https://www.rnp.br/en/noticias/first-laser-surgery-captured-in-1000-frames-per-second-at-4k-resolution
CineGrid Brasil website: http://cinegridbr.org/2015/12/16/cinegrid-brasil-team-shows-ophthalmic-laser-surgery-cinegrid-workshop-2015/

[pt] Cicero Inacio da Silva, Guido Lemos, Eliane Mayumi Nakano e Jane de Almeida, pesquisadores do LAVID/UFPB, do Laboratório de Artes Cinemáticas (LabCine/Mackenzie), do Setor de Cirurgia Refrativa do departamento de Oftalmologia (UNIFESP) e do Laboratório Telessaúde Brasil Redes da UNIFESP, participaram da última edição do CineGrid Workshop 2015, na Universidade da Califórnia, San Diego (UCSD), com uma demonstração da primeira cirurgia oftalmológica a laser captada com uma câmera capaz de filmar 1000 quadros por segundo na definição 4K. A câmera utilizada foi uma Phantom, da empresa Vision Research, especializada em equipamentos de ultra alta resolução. A câmera gera algo em torno de 1 Tb de dados a cada 3 minutos. A captação da cirurgia foi realizada pela equipe do LabCine, da Universidade Mackenzie, em parceria com o Laboratório do Programa Telessaúde Brasil Redes da UNIFESP. A pesquisa contou com o apoio do Setor de cirurgia refrativa, do Departamento de Oftalmologia, da Universidade Federal de São Paulo. Como não existe ainda um player para visualizar os resultados, a equipe do LAVID desenvolveu uma adaptação do FOGO Player, um sistema de visualização de conteúdos em UHD (ultra alta definição), para poder rodar os 1000 frames por segundo em 4K. O resultado obtido foi significativo, pois é possível observar a ação do laser na córnea do paciente, o que não é possível ser visualizado a olho nu. O desenvolvimento dessa tecnologia permitirá que os residentes da área de oftalmologia, ligada ao campo da cirurgia refrativa, possam observar a ação do laser no paciente e poder visualizar os efeitos do laser na córnea. A ideia é poder criar condições para que as cirurgias possam, em um futuro breve, ser transmitidas para diversas localidades, auxiliando na formação de residentes médicos na área da cirugia refrativa. Um dos desafios que a equipe do Brasil levou para o CineGrid 2015 é fazer a transmissão de uma cirurgia captada a 1000 fps em 4K para o próximo CineGrid San Diego em dezembro de 2016. Contudo, o desafio é bastante intenso, pois demandará, nada mais nada menos do que 120 Gbps de conectividade dedicada conectada diretamente à câmera, o que ainda não existe entre Brasil e Estados Unidos, mas que poderá ser desenvolvida em breve para que essa conexão científica se estabeleça no campo da telemedicina, telessaúde, video colaboração e visualização avançada.
As imagens da apresentação no CineGrid San Diego podem ser acessadas aqui: https://goo.gl/photos/9mMLHtag6zhrssRn7

Matéria da Agência FAPESP de hoje sobre CineGrid Brasil 2014

Visualização do mapa das conexões neurais do cérebro do projeto Connectome, dos NIH, na “caverna virtual” da University of Illinois at Chicago (foto: EVL)

Cinema estimula avanço da visualização científica

Link: http://agencia.fapesp.br/cinema_estimula_avanco_da_visualizacao_cientifica/19846/

19 de setembro de 2014

Por Elton Alisson

Agência FAPESP – Quando o diretor de cinema norte-americano George Lucas escreveu o roteiro do primeiro filme da série Guerra nas Estrelas (1977), ele planejava utilizar computação gráfica em uma das cenas principais, o ataque à estação espacial Estrela da Morte.

Mas na época a computação gráfica ainda começava a ser explorada por empresas de efeitos especiais, como a Industrial Light & Magic, fundada pelo próprio Lucas em 1975.

A solução tecnológica para a cena foi encontrada no Laboratório de Visualização Eletrônica (EVL, na sigla em inglês) da University of Illinois at Chicago (UIC), nos Estados Unidos. Na época, pesquisadores da instituição desenvolviam um sistema de computação gráfica para auxiliar químicos a fazer modelagem molecular. Com ele, era possível fazer as animações tridimensionais que Lucas pensava para o filme.

“Desenvolvíamos projetos de visualização científica, oferecendo computadores e softwares para químicos elaborarem modelos moleculares”, disse Maxine Brown, diretora do EVL, em uma palestra durante o CineGrid Brasil, congresso internacional realizado nos dias 28 e 29 de agosto no teatro da Faculdade de Medicina da Universidade de São Paulo (FMUSP).

“O diretor de fotografia do filme [o britânico Gilbert Taylor (1914-2013)] veio ao nosso laboratório e adaptou o sistema de modelagem molecular em parceria com os pesquisadores para criar a apresentação do plano de ataque à Estrela da Morte mostrada no filme”, afirmou.

A tecnologia de visualização científica desenvolvida pela instituição para fins científicos foi uma das várias que acabaram inspirando a ficção e chegando às telas dos cinemas.

Por outro lado, conceitos de visualização computacional imaginados e apresentados pela primeira vez em filmes também motivaram os pesquisadores da instituição a desenvolver soluções com propósitos científicos.

“A ciência influencia o cinema e vice-versa”, avaliou Brown. “Quando as pessoas veem algumas tecnologias desenvolvidas no nosso laboratório logo pensam que são cenografia para filmes de ficção científica. Em contrapartida, muitas coisas que vemos no cinema e ainda são ficção científica inspiram os nossos cientistas.”

O ambiente de realidade virtual “Holodeck”, apresentado pela primeira vez na série de televisão Jornada nas Estrelas, lançada em 1987, motivou os pesquisadores a desenvolver, em 1992, a Cave Automatic Virtual Enviroment (Cave), um sistema de projeção de realidade virtual.

A “caverna virtual” é uma sala no formato de um cubo na qual são emitidos sons e projetadas imagens tridimensionais em três paredes e no chão do ambiente, visualizadas por meio de óculos estereoscópicos (com visão binocular).

O usuário pode explorar o cenário projetado ao se movimentar dentro do cubo e manipular os objetos tridimensionais com um controle com três botões.

“A cave foi projetada para ser uma ferramenta útil à visualização científica e, quando foi lançada, começaram a chamá-la deHolodeck [de holografia]”, contou Brown. “Ela teve diferentes aplicações, como em um projeto de reconstituição virtual do bairro do Harlem [em Nova York] no período de 1920 a 1930.”

Nova versão

Em 2012, os pesquisadores do EVL lançaram uma nova versão da caverna digital, a Cave2. Inspirado na “sala de guerra” do filmeDr. Fantástico, de Stanley Kubrick (1928-1999), lançado em 1964, o ambiente de realidade virtual tem cerca de 24 metros de diâmetro e 8 metros de altura e é composto por uma única parede curva com mais de 70 telas de cristal líquido (LCD) sensíveis ao toque (touch screen).

A sala oferece aos usuários uma visão panorâmica de 320 graus de imagens com resolução de 37 megapixels (milhões de pixels) em 3D ou 74 megapixels em 2D projetadas na parede de telas de LCD.

A parede de telas pode ser utilizada tanto para a exploração de simulações de realidade virtual como para análises de grandes volumes de imagens colocadas lado a lado.

As imagens são visualizadas em conjunto e tocadas e manipuladas com os dedos por meio de uma tecnologia de exploração interativa de dados visuais, desenvolvida no EVL nos últimos anos cinco anos, inspirada no filme de ficção científica Minority Report, de Steven Spielberg, de 2002.

No longa, o personagem interpretado pelo ator norte-americano Tom Cruise usa luvas especiais e gestos para manipular arquivos de imagem, áudio e outros dados projetados em uma tela transparente.

“A parede de telas da Cave2 também permite misturar imagens e dados, como gráficos, de um mesmo problema que um grupo de pesquisadores está tentando solucionar para que possam analisá-los de uma forma global”, disse Brown.

De acordo com a pesquisadora, o ambiente de realidade virtual está sendo utilizado no Projeto Batman, do EVL, chamado assim em alusão a uma cena do filme Batman: o cavaleiro das trevas, dirigido por Christopher Nolan e lançado em 2008, em que o personagem Lucius Fox, interpretado pelo ator norte-americano Morgan Freeman, monitora a ocorrência de crimes na cidade fictícia de Gotham em uma parede curva de monitores.

O projeto tem o objetivo de visualizar os dados de criminalidade de Chicago – como os locais onde ocorrem crimes com maior frequência – para ajudar a polícia e os tomadores de decisão a desenvolver ações mais efetivas de combate ao crime.

“Reproduzimos toda a cidade de Chicago por meio de imagens de satélite fornecidas pelo Google Maps e projetamos na tela da Cave2”, disse Brown. “Ao fazer isso, os serviços de inteligência podem visualizar diversas áreas da cidade ao mesmo tempo e fazer comparações sobre locais onde ocorrem mais crimes, por exemplo, o que não era possível antes.”

Aplicações científicas

Segundo Brown, a Cave2 também tem sido utilizada para grandes projetos científicos nos Estados Unidos, como o Human Connectome Project.

Lançado em 2009 pelos National Institutes of Health (NIH), o projeto pretende identificar e mapear todas as conexões neuronais de um cérebro humano adulto.

Algumas das imagens de redes neurais já produzidas por equipamentos de ressonância magnética têm sido analisadas no ambiente de realidade virtual.

“A Cave2 possibilita que os neurologistas possam analisar o funcionamento do cérebro por meio de imagens de ressonância magnética com um nível de detalhe muito maior do que se conseguia”, afirmou Brown.

Mais recentemente, um grupo de pesquisadores do Programa de Ciência e Tecnologia em Astrobiologia para Exploração de Planetas (Astep, na sigla em inglês), da agência espacial dos Estados Unidos (Nasa), começou a usar o ambiente de realidade virtual para avaliar os resultados de testes em campo de um veículo autônomo submarino projetado para explorar a superfície de gelo na lua Europa – uma das quatro luas do planeta Júpiter.

Denominado Endurance, o robô foi projetado para navegar sob o gelo, coletando dados e amostras da vida microbiana e mapeando o ambiente subaquático para a produção de mapas tridimensionais.

A fim de prepará-lo para a missão – que deverá ocorrer após 2020 –, os pesquisadores fizeram uma série de testes em campo em lugares como o Lago Bonney na Antártica, que tem uma cobertura de gelo permanente.

Os dados coletados pelo robô na Antártica foram transmitidos ao EVL para a geração de imagens tridimensionais, mapas e representações de dados do lago.

Os pesquisadores do laboratório criaram, então, uma ferramenta para a visualização simultânea de centenas de imagens georreferenciadas e em alta resolução da camada de gelo que cobre o lago. Com isso, é possível estudar, por exemplo, a distribuição de sedimentos presos na superfície do gelo.

“A reunião dos engenheiros que projetaram o robô com os cientistas envolvidos na coleta de dados do projeto na sala de realidade virtual permite que eles entendam os problemas uns dos outros e estudem soluções de forma conjunta”, avaliou Brown.

First 4k ophthalmological surgery transmission from UNIFESP to USP

No dia 29 de agosto de 2014 a Faculdade de Medicina da USP presenciou, durante o CineGrid Brasil 2014, a primeira transmissão de uma cirurgia oftalmológica na resolução 4K. A cirurgia foi realizada no departamento de Oftalmologia da Universidade Federal de São Paulo (UNIFESP) e transmitida e captada em 4K para o Auditório central da Faculdade de Medicina da USP.

Foi a primeira vez que uma cirurgia de catarata e correção de miopia foram captadas microscopicamente e transmitidas nessa resolução (4096 x 2160 a 24 fps).

Hom

4k_3d_Telemedicina_Oftalmo_Unifesp_PEQ        4k_ophtalmic_unifesp

Presidente Dilma Rousseff assiste a trechos do filme EstereoEnsaios em Londres

A presidente Dilma Rousseff assistiu a trechos do filme EstereoEnsaios durante a mostra Brazil at Heart na embaixada do Brasil em Londres. Além da projeção do filme, a Presidente Dilma também foi apresentada ao projeto de Visualização Avançada da Rede Nacional de Ensino e Pesquisa (RNP).

Brazilian President Dilma Rousseff opened the Brazil at Heart venue at the Brazilian Embassy in London during the London 2012 Olympics and was introduced to the Advanced Visualization Apps research group from RNP.