dá para usar o Audacity pra colocar efeitos em imagens. esse tipo de hackeamento é chamado de databending (dobrando-dados ou ainda, gambiarrando dados?). eu fiz uns experimentos, baseados nas informações desses dois sites:
- http://www.hellocatfood.com/databending-using-audacity/
- https://questionsomething.wordpress.com/2012/07/26/databending-using-audacity-effects/
está em inglês (mas rola de sacar com o google translate).
primeiro eu peguei uma imagem jpg e abri no gimp (vc pode fazer algo similar no photoshop) e diminui seu tamanho. depois exportei em formato TIFF (sem compressão, e com canais de cor separados) – aparece como “.bmp” (no photoshop o tutorial diz que em [TIFF Options] você deve escolher em [image compression] “none” e em [Pixel Order] “Per Channel”.
agora no audacity. vá em importar “raw data” e escolha o arquivo que vc criou. nas opções, em [codificação], escolher “u-law” ou “a-law” e em [endiannes] sei lá, coloquei “endian grande” – porque o desenho do som parece ficar mais variado. aí é aplicar efeitos. comecei com o “inverter”, numa parte do meio do arquivo.
bom, agora retransformar em imagem. em exportar, colocar em [format] “outros ficheiros sem compressão” e em [opções] colocar [cabeçalho] “raw (head-less)” e codificação “u-law” ou “a-law” (a mesma que usou ao importar). renomeie o arquivo para “.bmp”.
em seguida, tentei de novo, a partir do anterior e adicionei um eco, do meio pro final do arquivo.
depois tentei um wah wah do início ao meio e aí deu erro (não sei se isso é verdade, mas parece que o começo é um local sensível). tentei de novo, evitando o comecinho do arquivo.
como soa a imagem plug4.bmp? ouça acima (é bem barulhenta!).
[colocar aqui mp3
postado em 27 de maio de 2015, categoria oi kabum bh : audacity, bending, crs, databending, imagens, mp3
1. Segundas referências em utilização da voz:
2. E na própria Kabum! BH o site da turma sompalavra, no concatena.
3. Começamos a editar no software Audacity (no elo ao lado, uma página interessante sobre). Muita coisa pode ser aprendida fuçando, explorando, lendo com atenção os menus e ícones.
- O Audacity salva e abre projetos do próprio. O projeto para ser aberto depende de uma pasta e um arquivo .aup, sem um ou sem outro não é possível trabalhar. Para usar um áudio, é preciso importá-lo, assim como para transformar um projeto trabalhado em áudio, é preciso exportar esse áudio.
- O Audacity não faz fade ins e fade outs automaticamente (crescendos e decrescendos de amplitude no “som”). Para cada corte ou efeito aplicado sobre uma área, é preciso fazer fade ins e fade outs manualmente, afim de evitar problemas de clipagem, quando a caixa de som ou fone de ouvido tenta bruscamente pular de uma posição para outra, fazendo um barulhinho.
4. O que é glossolália? E gromelô?
postado em 27 de abril de 2015, categoria oi kabum bh : audacity, concatena, crs 2015, fade, glossolália, kurt schwitters, luciano berio, sompalavra, trevor wishart
Eu e pedrães optamos por economizar ao máximo as explicações sobre acústica e psicoacústica dentro desse curso. Mas tem um pouco de física que é inevitável.
1. Quando falamos num som forte ou fraco (ou, em música, “piano”) estamos falando da dinâmica desse som. Quando falamos de som intenso, pouco intenso, ou mesmo fraco estamos falando da mesma coisa, mas de um ponto de vista, com uma linguagem mais acústica, de amplitude. daí que falamos também de níveis de pressão sonora – o som vai pelo ar ou outro meio (pela água, por exemplo), e acaba pressionando nossos ouvidos, ou então a parte de captação dos microfones – e então “convertemos” essa pressão em sensação e entendimento, “ah, é um som”.
2. Quando a gente fala de volume alto e volume baixo, estamos falando quase da mesma coisa – estamos falando de quanto o áudio vai ser amplificado, quando se transformar em som. Apesar de mais confusa, acabamos usando também esse vocabulário para a intensidade do som – som alto e som baixo (mas o que às vezes é confuso, porque a intensidade não tem nada a ver com se um som tem frequência alta ou baixa, isto é, se é agudo ou grave).
3. Quando abrimos um áudio num programa de edição de som como o Audacity, ele faz uma representação daquele áudio com um eixo de amplitude (y, cujos valores são os da resolução em bits) e um eixo temporal (x, cujos valores são os da taxa de amostragem). Por exemplo, quando abrimos um arquivo de áudio do tipo “wav” que está marcado 44.1khz / 16 bits, o programa, se entender corretamente a informação, vai ter um eixo y de amplitude com 216 valores possíveis, isto é, 65.536, e vai ter 44.1×1000 pontos por segundo, isto é, números / amostras. Do som são registrados 44100 por segundo valores. Nesse caso, no Audacity, vão existir 44100 números por segundo para representar o som, com valores de amplitude de -1 a 1 (existindo 65.536 possibilidades de avlores entre e incluindo -1 e 1).
4. Se pensarmos nesses valores de amplitude de -1 a 1 no Audacity, o 0 seria o ponto de descanso. É importante pensar nisso porque quando a caixa de som não está tocando nada ela está descansando, o que equivale a uma posição entre o máximo que ela pode mexer para frente e para trás. Quando ela mexer para frente, isso vai seguir as informações relativas aos valores positivos lá no áudio, e vai gerar zonas de condensação do ar. Quando ela se mexer para trás, isso vai seguir as informações relativas aos valores negativos lá no áudio, e vai gerar zonas de rarefação do ar. Essa alternância, os diferentes padrões de alternância de pressão no ar, são equivalentes aos diferentes sons e combinações de som.
5. Existe um modelo que representa as partículas do ar como ligadas por molas, e que com o tempo vão se empurrando. Pensando sobre isso, será que conseguimos entender a animação lá em cima?
6. Eu estudei na USP com o professor Fernando Iazzetta, na minha pós-graduação (em teoria da música). Ele tem um site bacana com muitas informações legais sobre acústica e áudio.
postado em 26 de abril de 2015, categoria oi kabum bh : acústica, audacity, áudio, crs, fernando iazzetta, pressão, resolução, som, taxa de amostragem