Mudanças entre as edições de "Hibrida/Simulador de Sinestesia"

De Garoa Hacker Clube
Ir para navegação Ir para pesquisar
Linha 15: Linha 15:
 
Após discussões extensas, concordamos em alguns pontos. Na conversão imagem -> som, precisamos saber quais informações conseguimos retirar do ambiente usando uma câmera digital e qual a liberdade de criação que temos em síntese de áudio em tempo real.
 
Após discussões extensas, concordamos em alguns pontos. Na conversão imagem -> som, precisamos saber quais informações conseguimos retirar do ambiente usando uma câmera digital e qual a liberdade de criação que temos em síntese de áudio em tempo real.
   
* [[Documentação]]
+
==Documentação==
  +
  +
===Textos sobre Sinestesia===
  +
  +
===Referências de trabalhos artísticos===
  +
  +
===Informações sobre eye-tracking===
  +
  +
===Informações sobre teoria da cor===
  +
  +
===Processing===
  +
  +
===Pure Data===

Edição das 19h27min de 26 de março de 2014

Link para a página do projeto no site do Hibrida

Pré-Hibrida

Idealizado por Rafael V. Ribeiro (zynphull), o Simulador de Sinestesia (nome provisório até hoje), em sua gênese, tinha por objetivo utilizar-se de software e hardware aberto para a conversão em tempo real de input visual em output sonoro e input sonoro em input visual, como descrito na proposta em .pdf enviada por Rafael para inscrição do Hibrida. Tendo sido a proposta eleita para participar do projeto, abriram-se as incrições para colaboradores.

Colaboradores

Durante o período de inscrição para colaboradores, uma equipe começou a ser formada, compondo-a Loren Bergantini, Vinicius Franulovic, Alex Tso e Glória Fernandes.

Primeiras reuniões 17 e 19 de março

Devido às limitações técnicas e temporais relacionadas ao Projeto Hibrida, que incuba o Simulador, decidimos por delimitar melhor o escopo da proposta, de modo a conseguir criar um protótipo não só funcional, mas também coeso e bem feito até o fim do Projeto Hibrida. Assim sendo, destarte optamos por limitarmo-nos à conversão de imagens visualizadas (do campo de visão do usuário do protótipo) em sons audíveis. Cogitamos por certo tempo a utilização de um dispositivo EyeTracker, que poderia ser utilizado para recortar uma porção campo de visão do usuário em que ele estaria se focando, dando ao protótipo mais informações sobre o que converter. Por ora, tal ideia encontra-se dormente, ainda que a implementação de um EyeTracker, terminado o projeto, não seja tarefa muito difícil.

Após discussões extensas, concordamos em alguns pontos. Na conversão imagem -> som, precisamos saber quais informações conseguimos retirar do ambiente usando uma câmera digital e qual a liberdade de criação que temos em síntese de áudio em tempo real.

Documentação

Textos sobre Sinestesia

Referências de trabalhos artísticos

Informações sobre eye-tracking

Informações sobre teoria da cor

Processing

Pure Data