Translator

Un glossario per la computer music

I musicisti parlano un gergo tutto loro,come del resto accade agli informatici,ingegneri,pittori,scrittori,astronauti,e via elencando. Anche se non avete intenzione di diventare un musicista a tempo pieno,comprendere i principali termini e acronimi del settore vi aiuterà ad orientarvi meglio nella scelta degli strumenti e del software. Inoltre,se imparerete ad usare propriamente alcuni dei termini che seguono,potreste impressionare qualche musicista con le vostre conoscenze.

A differenza di un glossario propriamente detto – in cui tutti i termini sono in ordine alfabetico – il presente è un glossario “ragionato”,che introduce i vari termini in un ordine logico e progressivo.

Nomi delle note – Fin dalla scuola materna conosciamo i nomi delle note,e non occorre ripassarli in questa sede. Vale invece la pena di notare che praticamente tutte le app musicali sono in lingua inglese e utilizzano il sistema “alfabetico” per assegnare i nomi alle note:“A” rappresenta la nota LA,“B” è il SI,“C” è il DO,e così via fino al “G” per il SOL. La scala di DO maggiore diventa quindi “C D E F G A B”,l’accordo di DO maggiore è “C E G” e l’accordo di DO minore settima è “C Eb G Bb”. Se non sapete come si formano i vari tipi di accordi non preoccupatevi più di tanto,perché sarete comunque in grado di fare dell’ottima musica sul vostro iPhone o iPad.

Strumenti virtuali,analogici,digitali – I primi strumenti elettronici erano strumenti analogici,in quanto producevano il suono sfruttando fenomeni fisici come segnali elettrici. Un esempio è il mitico Theremin,inventato nel 1928 ma reso famoso da tanti film di fantascienza degli anni ’50:con il Theramin il suono veniva prodotto da due oscillatori e modulato agitando le mani davanti a due antenne. Praticamente tutti gli strumenti più moderni sono invece digitali,in quanto il suono è prodotto da microprocessori e altro hardware dedicato. Spesso si parla anche di strumenti digitali hardware – ad esempio le tastiere prodotte da aziende come Yamaha,Roland,Korg,Casio – per distinguerli dagli strumenti software o virtuali,in cui il suono è prodotto da un computer,un tablet come l’iPad,o persino uno smartphone evoluto come l’iPhone. In linea di massima,uno strumento digitale (hardware o software) può produrre suoni in due modi differenti,a seconda che si tratti di un sintetizzatore o un campionatore.

Campionatore (o sampler) – Un campionatore è uno strumento musicale elettronico in grado di simulare molto fedelmente uno strumento acustico – ad esempio,una tromba o un violino – in quanto possiede in memoria una certa quantità di “campioni” (o sample) del suono dello strumento stesso. Le tastiere e i programmi per computer che producono il suono in questo modo si dicono campionatori e in fondo non sono che dei sofisticati registratori. Negli strumenti migliori di questo tipo esiste un campione per ciascuno degli 88 tasti della tastiera,e spesso più campioni per la stessa nota (suonata con intensità differente),in modo da riprodurre il suono nel modo più realistico possibile. D’altra parte,i campioni occupano parecchia memoria,e infatti i campionatori per PC o Mac possono richiedere anche decine di Gigabyte. La memoria è una risorsa che non abbonda su iPhone e iPad,ed è per questo motivo che spesso si deve ricorrere a tecniche di interpolazione per fare in modo che un solo campione possa essere usato per più note (adiancenti) e per più intensità. Nonostante questi artifici,i migliori campionatori per iPhone e iPad – ad esempio ThumbJam e SampleTank – producono risultati che solo un ascoltatore attento riesce a distingure dallo strumento acustico originale. Occorre anche tenere presente che vi sono strumenti che si prestano meglio di altri ad essere campionati con buoni risultati:ad esempio,è molto difficile trovare un buon campionatore per pianoforte o per sassofono.

Sintetizzatore (o synthesizer o synth) – Il sintetizzatore è uno strumento (hardware o virtuale) che usa uno o più oscillatori per produrre forme d’onda che,accavallandosi,possono produrre una vastissima tavolozza di timbri. Modulando le varie forme d’onda un sintetizzatore è spesso in grado di simulare uno strumento musicale con ottimi risultati – un classico esempio è il flauto e il clarinetto – e ancor meglio è in grado di creare suoni che non corrispondono ad alcun strumento esistente. I primi sintetizzatori analogici apparvero ai primi del Novecento e furono usati per lo più da musicisti accademici d’avanguardia,ma la vera esplosione del fenomeno si ebbe negli anni ’60 quando Robert Albert Moog inventò il mitico Moog,diventato immediatamente una icona della musica rock e pop di quegli anni. Chi possiede un iPhone o iPad può provare il brivido di usare un Moog con l’applicazione Animoog,prodotta proprio da Moog Music e concettualmente abbastanza simile allo strumento originale. Uno dei vantaggi principali di un synth rispetto a un campionatore è che risulta molto più facile modulare il suono per renderlo più espressivo,oppure farlo evolvere nel tempo come uno strumento musicale reale non potrebbe mai fare. Un altro vantaggio è che un synth richiede relativamente poca memoria,e quindi ben si presta ad essere implementato su iPhone e iPad:non a caso che l’App Store fornisca molti esempi di synth virtuali che non sfigurano davanti a strumenti hardware dal costo di centinaia o migliaia di euro.

Figura 1 - I primi modelli di Moog erano decisamente molto ingombranti

Tecniche di sintesi – I sintetizzatori (hardware o software) possono utilizzare numerosi meccanismi per produrre il suono,ognuno dei quali tende a creare dei timbri molto particolari e riconoscibili. Uno dei più semplici è la sintesi additiva,in cui i vari oscilloscopi sommano tante onde sinusoidali fino a ricreare l’onda caratteristica dello strumento che si vuole imitare. Tuttavia un synth basato su sintesi additiva è complesso da programmare,il che probabilmente spiega perché sono relativamente pochi gli strumenti commerciali basati su questa tecnica (ad esempio il Kawai K5). Al contrario,la sintesi sottrattiva è quella in cui si parte da un’onda ricca di armonici (ad es. un’onda quadra o triangolare) e si usano uno o più filtri per eliminare alcune armoniche;sono molti gli strumenti hardware e software che utilizzano questa tecnica,i più famosi dei quali sono il Moog,gli strumenti Jupiter di Roland,e il Clavia Nord Lead.

La sintesi a modulazione di frequenza e di fase,o sintesi FM,è quella in cui un segnale “modula” un altro segnale,un po’ come il pizzico di una corda sulla chitarra serve a modulare (e quindi a modificare) il suono della corda (che rappresenta il suono principale). La sintesi FM diventò popolare con il mitico Yamaha DX7 nei primi anni ’80,e da allora è usata in numerosi strumenti commerciali anche di altre marche (ad esempio il Korg DS-8). La sintesi a distorsione di fase,o phase distortion,è una variante della sintesi FM che usa forme d’onda più complesse ed è usata negli strumenti Casio CZ per ottenere le loro caratteristiche sonorità. La sintesi granulare viene usata nei campionatori e consiste nello spezzettare il campione di suono in tanti “grani” che vengono poi assemblati e sommati per generare altri suoni. Esistono altre tecniche di sintesi e vi sono molti strumenti – sia reali che virtuali – che utilizzano più tecniche di sintesi tutte insieme;esempi di questi strumenti “ibridi” sono il Prophet,l’Ensoniq,e il popolare Roland D50. È interessante il fatto che anche le app musicali per iPhone e iPad utilizzano quasi sempre qualche variante di queste tecniche di sintesi,ed è il motivo per cui vale la pena capire le differenze tra i vari sistemi.

Figura 2 – La tastiera Yamaha DX7 è ancora oggi una ottima tastiera “vintage”.

Polifonia e politrimbricità – I primi synth erano monofonici,ovvero potevano emettere solo una nota per volta,mentre tutti gli strumenti moderni sono polifonici e quindi possono riprodurre sia melodie che accordi:molte app per iPad possono riprodurre fino a 16 e 32 note contemporaneamente. Probabilmente vi starete chiedendo a cosa servono 32 note contemporanee,dato che i tastieristi hanno solo dieci dita. La risposta è che molti strumenti digitali sono anche politimbrici,ovvero riescono a riprodurre contemporaneamente timbri di strumenti differenti. In questo caso il tastierista controlla un timbro soltanto (oppure due,se ha usato il keyboard split per suddividere la tastiera in due parti),mentre gli altri strumenti virtuali sono controllati da un computer,un sequencer o una batteria elettronica.

Arpeggiatore (o arpeggiator – Molte tastiere hardware,come pure molti strumenti virtuali,includono una feature detta arpeggiatore,che è in grado di arpeggiare le note correntemente premute,utilizzando un pattern prestabilito (ad esempio,dalla nota più bassa alla nota più alta o viceversa),anche su più ottave. In pratica un arpeggiatore è in grado di creare un accompagnamento per un brano premendo pochi tasti con la mano sinistra,in modo che possiate concentrarvi sulla melodia eseguita con la mano destra.

LFO (o Low Frequency Oscillator) – I sintetizzatori producono il suono principale per mezzo di oscillatori la cui frequenza è paragonabile all’altezza della nota da riprodurre (ad esempio,440 Hz per produrre il LA centrale). Quasi tutti gli strumenti elettronici usano però ulteriori oscillatori a bassa frequenza per “modulare” alcune caratteristiche suono principale. Ad esempio,un LFO può essere usato per variare il volume 2-3 volte al secondo,in modo da simulare l’effetto del vibrato.

Forme d’onda (o wave shapes) – I vari oscillatori usati dai synth,sia per produrre che per modulare il suono,spesso possono produrre forme d’onda differenti. La forma sinusoidale classica viene spesso usata per simulare le corde che vibrano,ma esistono anche forme d’onda quadrata,triangolare e a dente di sega (o sawtooth).

Figura 3 – Le 4 forme d’onda più comuni (tratto da http://www.abletonop.com/2012/02/an-introduction-to-sound-waves-in-synthesis/).

Generatori di inviluppo (ADSR) – Il suono di un pianoforte differisce da quello di un violino,un sassofono o un tamburo non solo per il timbro – che è completamente differente – ma anche per il modo in cui il volume del suono varia nel tempo. Nel caso di un pianoforte,il suono raggiunge la sua massima intensità un istante dopo che il martelletto ha colpito la corda per poi decrescere velocemente,mentre nel caso di un violino il suono tende a crescere gradualmente quando il musicista comincia a muovere l’archetto e a rimanere a quel volume fin tanto che l’archetto viene mosso. In questo senso un tamburo è simile al pianoforte,mentre il sassofono è simile al violino (in questo caso il fiato del musicista ha la stessa funzione dell’archetto). Ma le cose non sono proprio così semplici,in quanto un violino può anche essere pizzicato e il sassofono può essere suonato con stile “staccato”.

Per simulare tutte le possibili situazioni,gli strumenti digitali – reali o virtuali – sono dotati di generatori di inviluppo in grado di controllare le fasi in cui il volume o il timbro dello strumento si può evolvere. La fase di attack (attacco) è il tempo in cui il suono raggiunge la massima intensità;la fase di decay (decadimento) è il tempo impiegato per scendere dal volume massimo al volume di sustain;il sustain è il valore del volume che viene mantenuto dopo la fase di decay;la fase di release (rilascio) è il tempo impiegato per passare dal volume di sustain al silenzio. Dalle iniziali di queste quattro parole si comprende perché questo meccanismo si chiama ADSR per brevità. Per quanto detto prima,la fase di attack sarà molto breve per il pianoforte e il tamburo,e più lunga per il violino suonato con l’archetto e il sassofono quando viene usato un attacco “dolce”;nel pianoforte la fase di release dura qualche secondo (a meno di non sollevare il dito dalla tastiera mentre non si tiene premuto il pedale di sustain),mentre nel caso del violino il suono si interrompe bruscamente quando si ferma l’archetto.

Si tenga presente che l’inviluppo ADSR si può applicare a numerosi parametri del suono,non solo al volume. Per esempio,si può applicare a un LFO che controlla il vibrato,in modo che il vibrato cominci qualche secondo dopo l’inizio del suono (come accade spesso con gli strumenti a fiato). Insomma,una buona impostazione dell’inviluppo ADSR è cruciale per ottenere suoni espressivi e realistici.

Figura 4 – Le fasi dell’inviluppo ADSR (tratto da http://blog.ntrq.net/wp-content/uploads/pulsar_manual/files/Page_Envelope.html).

Filtri – Sia nei synth che nei campionatori l’uso dei filtri è estremamente importante per modificare il timbro del suono prodotto,per simulare meglio strumenti reali e per modulare e rendere più espressivi i suoni “sintetici”. I filtri più comuni sono i filtri passa-basso,o low-pass,che fanno passare solo i suoni e le armoniche sotto una certa frequenza e tendono quindi a “scurire” il suono;i filtri passa-alto,o high-pass,che fanno passare solo le armoniche sopra una certa frequenza e rendono quindi più brillante il suono;i filtri passa-banda,o band-pass,che fanno passare solo le armoniche entro un certo intervallo. Le caratteristiche più importanti di un filtro sono la frequenza di soglia (threshold),ovvero quali frequenze attenuare,e il guadagno (gain),ovvero il fattore da usare per attenuare le frequenze fuori dall’intervallo prescelto. Conviene imparare il significato di questi termini,perché i filtri sono usati in molte app musicali per iPhone e iPad.

Equalizzatore (o EQ) – Questo è un termine che dovrebbe essere familiare a tutti gli appassionati dell’alta fedeltà. Un equalizzatore è un particolare filtro che permette di enfatizzare o attenuare le varie armoniche in modo da cercare di riprodurre le caratteristiche sonore di un ambiente. Ad esempio,una cattedrale tende a enfatizzare i suoni gravi più di una stanza le cui pareti sono ricoperte di materiale fono-assorbente. Un equalizzatore permette tipicamente di stabilire un intervallo di frequenze e il fattore di attenuazione o esaltazione del suono,mentre un equalizzatore parametrico suddivide lo spettro delle frequenze in tante bande di frequenza fissa (tipicamente da 8 a 32 bande) e permette di specificare precisamente il guadagno per ciascuna di esse.

Figura 5 – L’app Voice Synth per iPad dispone di un equalizzatore parametrico a 24 bande.

Effetti – Il suono che effettivamente ascoltiamo da uno strumento musicale dipende anche dall’ambiente. I concerti nelle chiese,ad esempio,sono così suggestivi anche perché un ambiente con volte così alte produce un effetto naturale di reverbero,mentre i concerti nelle cave abbandonate (per chi ha avuto la fortuna di assistervi) sono spesso caratterizzati da una grande quantità di eco (echo o delay). Per rendere il suono digitale più verosimile,praticamente tutti gli strumenti virtuali (hardware e software) permettono di aggiungere uno o più effetti al suono “nudo” dello strumento. Oltre al reverbero e al delay,si trova spesso il pan (spostamento verso destra o sinistra nella immagine stereo del suono),il chorus (che consiste nel raddoppiare il suono,come se suonassero più strumenti identici ma leggermente sfasati tra loro),il ping-pong delay (un delay in cui a ogni ripetizione si modifica il panning del suono),il detune (una variante del chorus in cui gli strumenti suonano altezze leggermente differenti),il flanger (altra variante del chorus,in cui lo sfasamento tra i due strumenti varia ciclicamente nel tempo),il distorsore (un effetto che i chitarristi rock e metal conoscono molto bene),ed altri ancora. Un effetto importante è il noise gate,che serve ad eliminare il fruscio che spesso si viene a creare collegando uno strumento al computer.

Grazie agli effetti,il suono originale può essere modificato fino ad assumere caratteristiche completamente nuove. Molti strumenti virtuali per iPhone e iPad dispongono di effetti,e esistono app il cui unico scopo è aggiungere uno o più effetti al segnale sonoro in ingresso,ad esempio AmpliTube,AmpKit e VocaLive. Nel selezionare i vari effetti,tenete presente che alcuni di questi richiedono molta potenza di CPU,ed è ad esempio il motivo per cui è difficile trovare un buon reverbero per iPad e ancor più per iPhone.

Fade-in e fade-out – Due tipi particoli di effetti che si possono ottenere modificando il volume di una porzione del brano sono le cosiddette fade-in (assolvenze),in cui il suono parte dal silenzio cresce fino ad arrivare al volume normale,e fade-out (dissolvenze),in cui al contrario il volume del suono diminuisce fino a scomparire. Le dissolvenze sono comuni soprattutto alla fine delle composizioni,ma possono essere usati per fare “sparire” progressivamente uno strumento.

Suoni “dry” e “wet” – Quando si lavora con gli effetti si usa distinguere il suono registrato originariamente senza effetti (dry,asciutto) dal suono ottenuto dopo l’applicazione degli effetti (wet,bagnato). Tenete a mente questi due vocaboli,perché compaiono spesso nei manuali delle varie app.

Re-amp (o re-amping) – Numerosi programmi permettono di registrare uno strumento interno (ad esempio un campione) oppure esterno (una chitarra o la voce) ed applicare al suono vari effetti. In alcuni casi viene registrato il suono “wet”,nel qual caso il suono originale (la versione “dry”) è persa per sempre;vi sono però alcune app – ad esempio AmpliTube e AmpKit – che conservano sia la versione “dry”che “wet”del suono,e permettono quindi il re-amping,ovvero la possibilità di applicare un insieme di effetti differente da quello usato durante la registrazione.

Resampling – Il resampling consiste nell’applicare uno o più effetti (tipicamente il delay,il reverse o l’arpeggiatore) a un suono e “ricampionare”il risultato per ottenere un nuovo preset. Il vantaggio del resampling è che il nuovo suono richiede meno potenza di CPU di quella necessaria per applicare ogni volta i vari effetti. Tra le app che supportano il resampling vi sono SampleWiz e NanoStudio.

Voice canceling – Alcuni applicazioni iOS permettono di riprodurre un brano della libreria musicale eliminando (o perlomeno attenuando) il suono della voce oppure dello strumento solista,in modo da dare la possibilità di esercitarsi nell’esecuzione del brano stesso. Il voice canceling si basa sulla considerazione che,di solito,la voce o lo strumento solista si trava al centro del panorama stereo del brano,cosa che non è purtroppo sempre vera. Per questo e per altri motivi,prendete sempre con un po’di scetticismo l’affermazione circa una app che permette il voice canceling.

Loop station (o looper) – Si tratta di uno strumento in grado di suonare all’infinito un frammento di brano e che permette di “sovrapporre”più registrazioni in modo da arricchire il suono ad ogni ripetizione. Le loop station sono nate come strumenti hardware -ad esempio i pedali della serie RC di Boss -e sono diventati compagni inseparabili di molti chitarristi,bassisti e beatboxers. Esistono attualmente alcune app per iPad che per pochi euro possono sostituire le costose loop station hardware,ad esempio Loopy HD.

Harmonizer – Si tratta di uno strumento in grado di “armonizzare”il suono della voce oppure di uno strumento monofonico (ad esempio uno strumento a fiato),in modo da creare interi cori e armonie complesse a partire da una singola nota. Gli harmonizer hardware esistono dagli anni ’80,ma adesso è facile trovare software e app per iPad – ad esempio,VocaLive – in grado di offrire le stesse prestazioni a una frazione del costo degli harmonizer hardware. Tipicamente,quando si usa un harmonizer occorre selezionare una tonalità,una scala e uno o più intervalli che devono essere aggiunti alla nota base. Ad esempio si potrebbe selezionare la scala di RE minore dorica (ovvero le note D E F G A B C) e gli intervalli di terza e di quinta:in questo caso,se con la voce si canta la nota RE l’harmonizer suona le note D F A;se invece si canta la nota SOL l’harmonizer suona le note G B D,e così via.

Interfaccia audio – Quando si deve registrare uno strumento acustico su computer è necessario utilizzare una interfaccia che trasformi il suono analogioco in dati digitali. Esistono numerosissime interfacce audio di questo tipo per PC e Mac,e sono un acquisto obbligato per chiunque voglia fare musica con il computer. Lavorando con iPhone e iPad esiste una possibilità più a buon mercato,quella di sfruttare il microfono interno oppure la presa per microsono esterno e cuffia,ma per risultati più professionali dovreste prendere in considerazione l’idea di acquistare una interfaccia audio.

MIDI – Quando gli strumenti elettronici hanno cominciato a evolversi è diventato necessario stabilire un “protocollo” per farli comunicare tra loro,ad esempio per collegare una tastiera a un expander,ovvero un modulo sonoro che non dispone di una propria tastiera,anche di marche diverse. Con questo obiettivo nei primi anni ’80 fu messo a punto il protocollo MIDI (da Musical Instrument Digital Interface). Tutti gli strumenti virtuali per PC o Mac,ma anche la maggior parte degli strumenti virtuali presenti su iPhone e iPad,possono essere controllati via MIDI attraverso una tastiera esterna.

Il protocollo MIDI è basato su messaggi numerici:quando sulla tastiera è premuto un tasto,la tastiera invia un messaggio MIDI composto di tre byte:il primo individua il tipo di messaggio (NoteOn,in questo caso),il secondo è un numero che rappresenta la nota premuta (ad esempio,60 per il DO centrale),il terzo rappresenta la velocity,un valore tra 0 e 127 che indica quanto velocemente il tasto è stato premuto. Altri messaggi MIDI sono emessi quando il tasto è rilasciato (NoteOff),quando si applica una pressione sul tasto già premuto (Aftertouch),quando si seleziona un preset differente (Program Change),ecc. Grazie a tutti questi parametri,la tastiera riesce a comunicare con esattezza al modulo sonoro le intenzioni del musicista e uno strumento elettronico riesce a raggiungere l’espressività di uno strumento acustico.

Interfaccia MIDI – Per la comunicazione tra un computer (ma anche un iPhone o iPad) e un modulo sonoro – che può essere di tipo hardware,come una tastiera MIDI o un expander,oppure software,ovvero un programma eseguito da un altro computer – è necessario che il computer sia dotato di una interfaccia MIDI. L’interfaccia MIDI “classica” è quella con i connettori DIN circolari a 5 pin,ma in tempi più recenti è diventata sempre più diffusa l’interfaccia MIDI USB,che permette a due dispositivi di comunicare tra loro tramite una porta USB standard. Esistono anche numerose interfacce MIDI USB,che permettono di mettere in comunicazione uno strumento MIDI con un computer tramite appunto le porte USB. Anche gli iPhone e gli iPad hanno bisogno di una interfaccia MIDI per trasmettere dati musicali a un computer,una tastiera o un expander,ad esempio iRig MIDI oppure Midi Mobilizer.

Figura 6 – Yamaha UX16 è un cavo USB che funziona come interfaccia MIDI

Canali MIDI (MIDI channel) -Un aspetto importante – e per certi versi anche un limite – del protocollo MIDI è la possibilità di inviare e/o ricevere comandi su 16 differenti canali. Ad esempio,un modulo sonoro MIDI politimbrico potrebbe ricevere i messaggi MIDI destinati al pianoforte sul canale 1,quelli relativi al basso sul canale 2,quelli relativi all’organo sul canale 3,e così via. Per convenzione,il canale 10 è utilizzato per i suoni di batteria. Alcuni strumenti meno evoluti sono in grado di inviare messaggi su un unico canale MIDI per volta,ma su molte tastiere è possibile impostare uno split point,in modo che le note sotto quel punto e le note sopra quel punto siano inviate a canali differenti.

Pitch bend e Modulation wheel – Praticamente tutte le tastiere moderne possiedono due rotelle,una dedicata al pitch bend e l’altra alla modulation. Il pitch bend è la possibilità di aumentare o diminuire l’altezza del suono prodotto,in modo continuo e senza premere nuovamente il tasto:il pitch bend può essere utile,ad esempio,per simulare il glissato che i violinisti ottengono facendo scorrere il dito sulla tastiera. La rotella della modulation serve invece a modificare in modo continuo il timbro o qualche altra caratteristica del suono,e viene spesso usata per introdurre un effetto di vibrato o tremolo. In alcune tastiere hardware le due rotelle sono sostituite da un unico joystick,che governa il pitch bend se spostato a destra o sinistra e la modulation se spostato in avanti o all’indietro (o viceversa).

Figura 7 – Tutte le tastiere dispongono di modulation wheel e pitch bend;in questo caso si tratta di una Korg Microkey 37.

Control Change (CC) – Una categoria importante di messaggi MIDI non serve a produrre un suono,bensì a modificare il timbro o altri parametri del suono stesso. Questi messaggi si chiamano controller o control change,ed esistono 128 messaggi CC differenti,numerati da 0 a 127. Per esempio,la rotella della modulation invia un messaggio CC numero 1;il volume si può controllare con il messaggio CC 7,mentre il pan con il messaggio CC 10. È importante notare che il funzionamento corretto è necessario che lo strumento (reale o virtuale) che riceve il messaggio MIDI lo supporti e reagisca nel modo atteso. Ad esempio,alcuni software non reagiscono affatto al messaggio CC 2 (detto breath controller,controllo via fiato) quindi non varieranno il volume alla ricezione del messaggio. Da questo punto di vista,i programmi migliori sono quelli in grado di associare qualsiasi messaggio CC in ingresso a qualsiasi parametro del generatore di suoni,come accade ad esempio su iPhone e iPad con l’ottimo NanoStudio.

Messaggi Sysex – La maggior parte degli strumenti MIDI è in grado di inviare o ricevere dei messaggi “di sistema”,il cui significato varia a seconda dello strumento in questione. Ad esempio,una serie di messaggi Sysex potrebbero modificare il parametro di una specifica tastiera MIDI o di un expander. Il limite dei messaggi Sysex è di funzionare solo con un determinato modello. La possibilità di ricevere,memorizzare e inviare i messaggi Sysex può essere una caratteristica desiderabile in un sequencer,ma in genere è un “optional” in assenza del quale è comunque possibile utilizzare con profitto il protocollo MIDI.

Messaggi Song Position – Alcuni messaggi MIDI di sistema non agiscono sul suono ma corrispondono ai comandi Start,Stop,Record,Rewind ecc. che si trovano sui registratori. Se il software che state utilizzando su computer o iPad riconosce correttamente i messaggi di tipo Song Position,sarà possibile comandarlo a distanza da un altro dispositivo MIDI e impostare direttamente il punto del brano da cui deve partire la riproduzione.

General MIDI (GM) – Il protocollo MIDI originario permetteva inviare o salvare i messaggi,ma non si poteva indicare con quale strumento “virtuale” dovessero essere suonati. A questo problema si è ovviato nel 1991 con l’introduzione dello standard General MIDI,che stabilisce – tra le altre cose – la corrispondenza dei messaggi Program Change con 128 strumenti appartenenti alle categorie più comuni (piano,percussioni cromatiche,organi,chitarre,suoni orchestrali,ottoni,ance,flauti,synth,pad,effetti synth,strumenti etnici,percussioni,effetti sonori),come pure la corrispondenza delle singole note ai vari elementi dei kit di batteria. Nel 1999 il protocollo fu ulteriormente espanso nel General MIDI Level 2 (o GM2),con la determinazione di un significato univoco di alcuni messaggi CC e Sysex,tra cui la possibilità di selezionare banchi differenti di preset (per mezzo dei messaggi CC 0 e CC 32) in modo da funzionare anche con tastiere e expander con più di 128 timbri.

Tastiere e controller MIDI – Se avete uno strumento – reale o virtuale – che risponde al protocollo MIDI potete usare un controller MIDI esterno per inviare le note a tale strumento. L’uso di un controller MIDI esterno è particolarmente utile (anzi,indispensabile) con le app per iPhone e iPad,in quanto la tastiera virtuale sullo schermo non è certo utilizzabile per eseguire musica di una certa complessità. I controller più comuni sono le tastiere MIDI,ovvero tastiere che non emettono suoni ma dispongono di una interfaccia MIDI per inviare all’esterno le note e tutti gli altri messaggi MIDI. Praticamente tutte le tastiere MIDI sono dinamiche (riescono a distinguere la velocità con cui sono premuti i tasti),e spesso sono offrono controlli rotatori (o knob),cursori (fader),e pulsanti in grado di inviare messaggi di Control Change. In questo modo il musicista è in grado di controllare completamente sia il suono prodotto che le caratteristiche del programma con cui è collegato senza abbandonare la tastiera. Tra le tastiere MIDI complete ma economiche val la pena di citare la serie UMX di Behringer (con versioni a 25,49,e 61 tasti) e la serie Oxygen di M-Audio. In realtà,praticamente tutte le tastiere musicali di fascia media o alta possono essere usate come tastiere MIDI per controllare programmi o expander esterni.

Figura 8 – Behringer UMX49 è un controller MIDI completo e economico.

Ci sono anche altri tipi di controller MIDI oltre alle tastiere. Ad esempio,un wind controller o breath controller è uno strumento MIDI che assomiglia vagamente a un clarinetto e in cui le note MIDI vengono “modulate” tramite il fiato dell’esecutore. Gli strumenti più diffusi di questo tipo sono l’Akai EWI 4000s e lo Yahama WX5,che hanno il pregio di aver aperto le porte del MIDI a migliaia di sassofonisti,trombettisti,flautisti e clarinettisti.

Figura 9 – AKAI EWI 4000s è un controller MIDI ma dispone anche di un synth integrato,quindi si può suonare anche senza un expander.

Un altro controller abbastanza diffuso è il MIDI foot controller,che rende possibile inviare dei messaggi MIDI tramite una pedaliera (…e dà un significato nuovo e positivo alla locuzione “suonare con i piedi”). Tra i modelli più diffusi vi è il Behringer FCB1010 e il McMillain SoftStep.

Figura 10 – McMillain SoftStep è una pedaliera compatibile con il protocollo MIDI-USB e in grado di inviare messaggi a un iPad attraverso il Camera Connection Kit.

MIDI Learn – Quando si utilizza un controller MIDI per pilotare una applicazione in modalità avanzata – ovvero inviando tutti i messaggi CC per controllare i vari parametri del suono,gli effetti,ecc – è necessario un lavoro non banale per “accoppiare” i parametri del programma con le manopole e i pulsanti sul controller. Questo compito è decisamente più semplice se il programma supporta il MIDI learn:in tal caso,nel programma attivate la modalità MIDI Learn,poi selezionate il parametro che volete controllare,e infine muovete leggermente la manopola o il pulsante (sul controller MIDI) che volete corrisponda a quel parametro.

Latenza MIDI – Ciascun messaggio MIDI deve essere trasmesso lungo un cavo,decodificato dallo strumento e infine tramutato in suono. Tutti questi passaggi richiedono tempo e per questo motivo lavorando con strumenti MIDI spesso si avverte un fastidioso fenomeno detto latenza:voi premete il tasto sulla tastiera,ma il suono arriva leggermente in ritardo. La latenza è specialmente evidente con i suoni percussivi e in generale quelli in cui è corta la fase “A” dell’inviluppo ADSR. In generale,più il computer utilizzato è potente,minore è la latenza MIDI. Per lo stesso motivo dovreste evitare di usare cavi MIDI più lunghi del necessario o trasmettere i dati MIDI via wi-fi. La latenza MIDI diventa particolarmente evidente quando una app produce sia dati audio (la cui resa è istantanea) che dati MIDI:per questo motivo,i migliori software per PC e Mac (ma anche iPad) permettono di specificare la latenza della propria strumentazione MIDI. In tal caso il programma compensa emettendo l’audio leggermente in ritardo in modo da sincronizzarlo con il suono prodotto dal MIDI.

Sequencer MIDI – Un sequencer MIDI è un programma che permette di comporre musica,impostando le note da suonare su tracce (o track) differenti. Ad esempio,sulla prima traccia si potrebbero inserire le note da far suonare al pianoforte,sulla seconda traccia quelle destinate alla chitarra,e così via. Le note sulle varie tracce si possono inserire secondo differenti modalità:manuale (una ad una,usando il mouse o il touch screen),recording (suonando in tempo reale una tastiera MIDI collegata),oppure step recording (inserendo le note una per una usando una tastiera collegata). Ciascuna traccia è associata a un canale MIDI di trasmissione e alla pressione del tasto Play il sequencer invierà tutti i messaggi MIDI sui canali predisposti per ciascuna track:è quindi importante che ci sia corrispondenza tra i canali impostati in trasmissione sul sequencer e i canali impostati in ricezione sul modulo sonoro collegato.

I primi sequencer erano strumenti hardware – ad esempio quelli della serie Roland Microcomposer – che non producevano alcun suono,ma avevano appunto bisogno di essere collegati via MIDI ad altri strumenti. Poi arrivarono i primi sequencer hardware con modulo sonoro integrato,ad esempio lo Yahama QY700. Al giorno d’oggi i sequencer hardware sono praticamente estinti e sono stati sostituiti dalle DAW (vedi più avanti). Potete trovare ottimi sequencer anche su iPhone e iPad.

Batteria elettronica (o drum machine) – Una batteria elettronica non è che un sequencer dedicato ai suoni di batteria. Tipicamente una drum machine include un set di pad (grossi pulsanti sensibili alla dinamica) che producono il suono di un elemento della batteria. Una drum machine viene fornita con diversi drum kit,o batterie virtuali,quindi possiamo scegliere tra una batteria adatta per il rock,una per il jazz,una in cui i suoni campionati sono ottenuti mediante le spazzole anziché le bacchette,e così via. Come per i sequencer,anche le drum machine hardware tendono ad essere sostituite da applicazioni software. Le drum machine per iPhone e iPad sono molto più facili da usare di quelle per PC e Mac grazie al multi-touch.

Figura 11 – La batteria elettronica Roland TR-808

Beat Per Minute (o BPM) – Si tratta di una misura che indica la velocità di riproduzione di un brano ed è uguale al numero di beat (o battute) che devono essere eseguite in un minuto. Ad esempio,un BMP pari a 120 corrisponde a due battute al secondo,quindi una misura di 4/4 verrà eseguita in due secondi. Se dovete far suonare insieme una drum machine e un sequencer o un arpeggiatore,assicuratevi che siano impostati sullo stesso numero di BMP.

Tap Tempo – Per specificare il numero di BPM di un brano si possono usare almeno tre metodi:si può introdurre il valore numerico preciso,si può utilizzare un cursore,oppure si può battere (tap) su un pulsante a tempo. L’ultimo dei tre metodi è sicuramente il più intuitivo e infatti è supportato da numerose le app per iPhone e iPad. Di solito occorrono almeno 4 tap per indicare correttamente il tempo.

Swing – Una sequenza ritmica composta di note della stessa durata – ad esempio,tutte crome – può essere riprodotta così come è scritta,ovvero con tutte le note di durata perfettamente identica – oppure può essere suonata applicando un fattore di swing. Lo swing è tipico dello stile jazzistico di articolare le frasi e consiste nel ridurre leggermente la durata della seconda nota di ciascuna coppia. Numerosi sequencer e drum machine per iOS permettono di introdurre un fattore (personalizzabile) di swing.

Pitch-to-MIDI o Voice-to-MIDI – È la capacità di analizzare in tempo reale un suono naturale (la voce,uno strumento acustico),determinare la sua intonazione e trasformarlo in un messaggio MIDI,che può essere usato per controllare un dispositivo MIDI oppure un programma. Fino agli anni ’90 il pitch-to-MIDI era una feature presente in alcuni processori di segnale hardware – ad esempio,il Roland VC-70 – ma grazie al crescere della potenza dei computer è ora presente in alcuni software e persino in alcune app per iPhone e iPad,ad esempio ThumbJam e Play By Ear. Il problema principale del pitch-to-MIDI è che il riconoscimento funziona bene solo con strumenti monofonici e richiede che il suono da decodificare sia prodominante rispetto all’ambiente,il che impedisce di usarlo in situazioni “live” quando sul palco è presente tutta la band.

Open Sound Control (OSC) – È uno standard alternativo al MIDI per far comunicare computer,sintetizzatori,e altri strumenti multimediali (ad esempio,una centralina luci). Un piccolo numero di applicazioni per iPhone e iPad supporta questo standard,ad esempio ThumbJam.

Digital Audio Workstation (DAW) – Con questo termine si indicano i programmi sui quali è possibile comporre un brano completo. Una DAW degna di questo nome permette di registrare numerose tracce (track),ciascuna delle quali può contenere dati MIDI e registrazioni audio,fornisce gli strumenti virtuali a cui associare le varie tracce MIDI,include una drum machine,una serie di effetti e un mixer per dosare il volume e la quantità di effetti per le singole track. In questi anni buona parte della musica commerciale,soprattuto dance,hip-hop e techno,viene prodotta su PC o Mac tramite software DAW altamente sofisticati,ad esempio Pro Tools,Ableton Live,Reason,o Logic. Anche su iPhone e iPad esistono degli ottimi DAW,come GarageBand,MusicStudio e Meteor. Se volete cimentarvi nella composizione musicale su iPhone e iPad è importante comprendere potenzialità e limiti ci ciascuna,perché passete molto del vostro tempo a lavorare con app di questo tipo.

Overdubbing – Si tratta della tecnica detta anche sovraincisione,in cui registrate più volte la stessa porzione del brano,ogni volta suonando note differenti (o anche strumenti differenti) in modo da creare parti armoniche e contrappunti anche complessi. L’overdubbing è diverso quindi dall’overwriting,in cui le note registrate si sostituiscono a quelle esistenti. Grazie all’overdubbing un singolo musicista può trasformarsi in un coro o una intera orchestra.

Quantizzazione – Quando si registra una traccia in tempo reale è molto comodo disporre di una funzione di quantizzazione,grazie alla quale la DAW assicura che tutte le note suonate siano correttamente a tempo,oppure “sul beat”come spesso si dice. Quando si attiva la modalità di quantizzazione si deve anche selezionare la durata delle note a cui quantizzare:se ad esempio si seleziona la nota da 1/8 di misura (ovvero una croma),tutte le note suonate in tempo reale verranno spostate sul più vicino multiplo di croma,anticipando le note leggermente in ritardo e,viceversa,ritardando le note suonate leggermente in anticipo. Quando si quantizza occorre anche decidere se la quantizzazione riguarda solo l’inizio della nota o anche la sua durata.

Humanize -La funzione di “umanizzazione”è in un certo senso il contrario della quantizzazione e consiste nell’introdurre impercettibili errori nell’attacco o nella durata delle note,in modo da replicare più verosimilmente lo stile di un musicista umano ed evitare l’effetto “robot”ottenuto da una quantizzazione troppo precisa.

Mixdown – Lo scopo finale delle DAW è effettuare il mixdown delle varie tracce,in modo da produrre un file audio WAV (non compresso) oppure MP3 (compresso) che possa essere ascoltato su un qualsiasi lettore musicale. Durante il mixdown si applicano solitamente alcuni effetti ambientali generali – ad esempio un leggero reverbero – per migliorare la qualità generale della registrazione.

Count-in – Quando si deve registrare una traccia MIDI o audio che parte all’inizio del brano è molto comodo attivare il count-in e fare eseguire dal metronomo una o due misure “a vuoto”,in modo da essere pronti quando arriva la prima nota. Praticamente tutti i programmi che permettono di registrare hanno l’opzione del count-in.

Punch-in/Punch-out – Disponendo di un DAW non è strettamente necessario ri-registrare il brano dall’inizio alla fine se si è commesso qualche errore. Molto meglio ri-registrare i pochi secondi contenenti l’imperfezione,utilizzando la tecnica detta punch-in/punch-out:si sposta la testina virtuale di riproduzione qualche secondo prima dell’inizio della parte in questione,si fa partire la riproduzione e quando si raggiunge il punto esatto si preme il pulsante di registrazione (punch-in),si registra nuovamente la sezione – sperando di farlo correttamente,stavolta – poi si preme nuovamente il tasto di registrazione per tornare in modalità esecuzione (punch-out). È una tecnica che esisteva fin dai tempi dei registratori analogici,ma con le DAW è tutto molto più semplice.

Effect bus – L’applicazione dei vari effetti alle singole tracce di una DAW è di solito un processo che richiede molta potenza di elaborazione. Per questo motivo spesso – soprattutto sui dispositivi meno potenti come iPhone e iPad – gli effetti sono disponibili tramite uno o più effect bus,in cui si prepara una catena di uno o più effetti (detta effect bus) e si decide in seguito quali tracce utilizzano il bus. Ad esempio,se quattro tracce richiedono il reverbero e un po’ di chorus,si prepara un bus contenente questi due effetti e poi si associano le tracce a questo bus.

Track freeze – Come ho appena accennato,l’applicazione di numerosi effetti richiede molta potenza computazionale. Quando la CPU proprio non ce la fa a reggere il ritmo dei dati da elaborare si cominciano ad ascoltare delle fastidiose interruzioni nel suono. Per evitare questo problema,praticamente tutte le DAW permettono il freeze delle tracce,ovvero permettono di applicare in anticipo i vari effetti a una traccia – sia audio che MIDI – in modo da produrre un file sonoro la cui riproduzione è sicuramente meno impegnativa dal punto di vista computazionale. Alcuni programmi supportano anche l’unfreeze,che riporta la traccia nel suo stato originale e permette di modificare le note MIDI oppure la catena degli effetti da utilizzare.

Track bounce – Se la vostra DAW possiede un numero limitato di tracce – ad esempio otto,come nel caso di GarageBand – potete comunque registrare un numero maggiore di strumenti utilizzando una tecnica detta bouncing. In pratica,eseguite la “fusione” di due o più tracce in una soltanto,in modo da avere nuovamente alcune tracce libere. Questa tecnica era estremamente preziosa quando i registratori non professionali tipicamente disponevano di sole quattro tracce. Il problema del boncing è che – a differenza del freezing -di solito si tratta di una azione irreversibile,in quanto non è più possibile recuperare e modificare le tracce originali. (In realtà è possibile farlo se avete l’accortezza di salvare le tracce su file separati prima di effettuare il bouncing – GarageBand lo fa in automatico.)

Side-chaining – Questo termine ricorre talvolta nella descrizione delle feature delle DAW più evolute. In pratica,si tratta della possibilità di “comprimere” il segnale audio di una traccia in corrispondenza del segnale audio di un’altra traccia. L’esempio classico,abbastanza comune nella musica techno,si ha quando una traccia contiene la cassa e un’altra traccia contiene il basso,che però tende ad essere coperto dal suono della cassa. Grazie al side-chaining possiamo aggiungere un compressore alla traccia della cassa e fare in modo che il compressore entri in azione e riduca il suono della cassa solo in corrispondenza delle note sulla traccia del basso.

MIDI automation – Le migliori app sul mercato dispongono di una importante caratteristica:l’automazione MIDI. Con questo termine si indica la possibilità di registrare nelle varie tracce MIDI non solo le singole note ma anche i parametri che controllano gli effetti,come il volume,il pan,il pitch bend,la modulation,i vari filtri,ecc. Ad esempio,l’automazione del volume permette di inserire degli effetti di fade-in (assolvenza) quando entra in scena uno strumento,oppure di fade-out (dissolvenza) al termine del brano. Se pensate di aver bisogno di questa caratteristica assicuratevi di scegliere una DAW che supporti la MIDI automation,come Meteor o BeatMaker 2.

MIDI clock sync – Quando più strumenti o programmi MIDI devono “suonare insieme”,è necessario che si mettano d’accordo sia sul tempo metronometrico (il numero di BPM) sia sull’istante in cui comincia il brano. A questo scopo,alcuni programmi sono in grado di emettere (e di riconoscere) il messaggio di MIDI sync. In queste situazioni uno degli strumenti o applicazioni è detto master,in quanto governa il tempo delle altre (che sono dette slave).

Patchbay o router (audio o MIDI) – Quando si devono gestire numerose fonti di suono oppure numerose fonti di messaggi MIDI può essere utile dotarsi di un patchbay o router. Questi strumenti,che possono essere di tipo audio o di tipo MIDI,dispongono tipicamente di due o più ingressi e due o più uscite,e possono essere programmati per elaborare il segnale in arrivo sull’ingresso N-esimo e inviarlo sulla uscita M-esima (ma anche duplicare il segnare su più uscite);in questo modo potete accoppiare velocemente tutti i vostri strumenti,ad esempio comandare alternativamente due o più expander con un’unica tastiera MIDI,senza dover staccare e ricollegare i vari cavi.