1. ouvimos um trechinho do prelúdio da suíte em sol maior para violoncelo, de johan sebastian bach, na interpretação de yo-yo-ma. como notar? cada um tentou do seu modo, mas os que sabiam notação convencional tentaram fazer sem usar notação convencional.
2. ouvimos a peça inteira. olhamos a partitura (bach-johann-sebastian-prelude-from-suite-no-1-in-g-major). então tentamos a partir da comparação entre escutar e olhar a partitura, deduzir como a partitura funcionava (pedi para quem já sabia esconder o jogo).
3. disso surgem questões que misturam som, comunicação e expressão gráfica.
4. ouvimos outra interpretação, de dimos goudarolis. no que ela difere? [curiosidade: tem um espetáculo do dimos que ele toca enquanto pessoas dançam, e a companhia que aparece é a j.gar.cia, com a qual eu já fiz turnê como operador de som – nessa reportageme nesse teaser].
5. vimos um vídeo para sommeil, de pierre henry. primeiro sem som. é uma vídeo-partitura, feita para auxiliar a escuta. mas como seriam os sons? [pierre henry – sommeil, em pdf porque não consegui inserir vídeo aqui, as imagens foram feitas por françois delalande]
6. vimos novamente, dessa vez com som. discutimos qual símbolo correspondia a qual som, e o quanto de variação havia no som e na notação.
7. vimos o vídeo scanner studies, de johannes kreidler
8. pensamos sobre. quais são os elementos cômicos? (relação entre expectativa, som e imagem).
9. olhamos essa partitura abaixo.
10. ouvimos a abertura do balé, com e sem dança. tentamos contar junto (o número de lados da figura define o agrupamento de acentos da música, a partir de um pulso).
postado em 27 de maio de 2015, categoria oi kabum bh : 21, bach, crs, crs 2015, dimos goudarolis, johannes kreidler, partitura, pierre henry, uakti, yo-yo ma
dá para usar o Audacity pra colocar efeitos em imagens. esse tipo de hackeamento é chamado de databending (dobrando-dados ou ainda, gambiarrando dados?). eu fiz uns experimentos, baseados nas informações desses dois sites:
- http://www.hellocatfood.com/databending-using-audacity/
- https://questionsomething.wordpress.com/2012/07/26/databending-using-audacity-effects/
está em inglês (mas rola de sacar com o google translate).
primeiro eu peguei uma imagem jpg e abri no gimp (vc pode fazer algo similar no photoshop) e diminui seu tamanho. depois exportei em formato TIFF (sem compressão, e com canais de cor separados) – aparece como “.bmp” (no photoshop o tutorial diz que em [TIFF Options] você deve escolher em [image compression] “none” e em [Pixel Order] “Per Channel”.
agora no audacity. vá em importar “raw data” e escolha o arquivo que vc criou. nas opções, em [codificação], escolher “u-law” ou “a-law” e em [endiannes] sei lá, coloquei “endian grande” – porque o desenho do som parece ficar mais variado. aí é aplicar efeitos. comecei com o “inverter”, numa parte do meio do arquivo.
bom, agora retransformar em imagem. em exportar, colocar em [format] “outros ficheiros sem compressão” e em [opções] colocar [cabeçalho] “raw (head-less)” e codificação “u-law” ou “a-law” (a mesma que usou ao importar). renomeie o arquivo para “.bmp”.
em seguida, tentei de novo, a partir do anterior e adicionei um eco, do meio pro final do arquivo.
depois tentei um wah wah do início ao meio e aí deu erro (não sei se isso é verdade, mas parece que o começo é um local sensível). tentei de novo, evitando o comecinho do arquivo.
como soa a imagem plug4.bmp? ouça acima (é bem barulhenta!).
[colocar aqui mp3
postado em , categoria oi kabum bh : audacity, bending, crs, databending, imagens, mp3
Eu e pedrães optamos por economizar ao máximo as explicações sobre acústica e psicoacústica dentro desse curso. Mas tem um pouco de física que é inevitável.
1. Quando falamos num som forte ou fraco (ou, em música, “piano”) estamos falando da dinâmica desse som. Quando falamos de som intenso, pouco intenso, ou mesmo fraco estamos falando da mesma coisa, mas de um ponto de vista, com uma linguagem mais acústica, de amplitude. daí que falamos também de níveis de pressão sonora – o som vai pelo ar ou outro meio (pela água, por exemplo), e acaba pressionando nossos ouvidos, ou então a parte de captação dos microfones – e então “convertemos” essa pressão em sensação e entendimento, “ah, é um som”.
2. Quando a gente fala de volume alto e volume baixo, estamos falando quase da mesma coisa – estamos falando de quanto o áudio vai ser amplificado, quando se transformar em som. Apesar de mais confusa, acabamos usando também esse vocabulário para a intensidade do som – som alto e som baixo (mas o que às vezes é confuso, porque a intensidade não tem nada a ver com se um som tem frequência alta ou baixa, isto é, se é agudo ou grave).
3. Quando abrimos um áudio num programa de edição de som como o Audacity, ele faz uma representação daquele áudio com um eixo de amplitude (y, cujos valores são os da resolução em bits) e um eixo temporal (x, cujos valores são os da taxa de amostragem). Por exemplo, quando abrimos um arquivo de áudio do tipo “wav” que está marcado 44.1khz / 16 bits, o programa, se entender corretamente a informação, vai ter um eixo y de amplitude com 216 valores possíveis, isto é, 65.536, e vai ter 44.1×1000 pontos por segundo, isto é, números / amostras. Do som são registrados 44100 por segundo valores. Nesse caso, no Audacity, vão existir 44100 números por segundo para representar o som, com valores de amplitude de -1 a 1 (existindo 65.536 possibilidades de avlores entre e incluindo -1 e 1).
4. Se pensarmos nesses valores de amplitude de -1 a 1 no Audacity, o 0 seria o ponto de descanso. É importante pensar nisso porque quando a caixa de som não está tocando nada ela está descansando, o que equivale a uma posição entre o máximo que ela pode mexer para frente e para trás. Quando ela mexer para frente, isso vai seguir as informações relativas aos valores positivos lá no áudio, e vai gerar zonas de condensação do ar. Quando ela se mexer para trás, isso vai seguir as informações relativas aos valores negativos lá no áudio, e vai gerar zonas de rarefação do ar. Essa alternância, os diferentes padrões de alternância de pressão no ar, são equivalentes aos diferentes sons e combinações de som.
5. Existe um modelo que representa as partículas do ar como ligadas por molas, e que com o tempo vão se empurrando. Pensando sobre isso, será que conseguimos entender a animação lá em cima?
6. Eu estudei na USP com o professor Fernando Iazzetta, na minha pós-graduação (em teoria da música). Ele tem um site bacana com muitas informações legais sobre acústica e áudio.
postado em 26 de abril de 2015, categoria oi kabum bh : acústica, audacity, áudio, crs, fernando iazzetta, pressão, resolução, som, taxa de amostragem