Bienvenue,
Invité
|
|
Ce sujet est en réponse (de bonne humeur, ne vous en faites pas ) à ceux qui ne comprenne pas ma position et mes commentaires concernant le son utilisé pour les enregistrements donnés.
Je vais m'appuyer sur ce qu'on m'a reproché à mes débuts en tant que compositeur au conservatoire (en Musique Assistée par Ordinateur). Je ne pense pas ne pas apprécier le compositeur en dehors du son qu'il donne, mais il faut quand même se rendre compte que le son lui-même est une caractéristique très importante de la musique. Quand un compositeur écrit pour orchestre, et que c'est vraiment pour orchestre qu'il écrit, alors c'est qu'il vise un son particulier qu'il n'aura qu'avec un orchestre et non en l'imitant. L'enregistrement synthétique a alors autant de valeur qu'une partition (mais qu'une partition limitée, car la synthèse ne permet pas certains effets acoustiques comme le col legno par exemple). Dans le cas de beaucoup ici, le son semble imité pour être imité, sans intention réelle de réalisation acoustique. Je pose alors la question de l'esthétique : si ces sons de synthèse sont appréciés ou s'ils sont simplement utilisés faute de mieux. Dans le premier cas, pourquoi se limiter aux possibilités (étendues) d'un orchestre au lieu de développer des choses qui ne seront possibles qu'avec l'ordinateur ? Dans le second cas, pourquoi, au vu de la quantité de musique produite et de la place que la musique semble avoir dans la vie du compositeur, ne pas investir une fois 190€ (prix amazon.fr) dans Finale 2011, pour avoir des sons qui se rapprocheront beaucoup plus d'une réalité orchestrale et un très bon logiciel d'écriture ? Il me semble que cette question n'est pas posée par tous les compositeurs, et que cela est dommage car elle empêche d'assumer ses choix jusqu'au bout. C'est ce qui a entraîné le débat avec Sorges pour son Hymne à la Joie, qui utilisait des respirations continues et des sons très justes parce que l'ordinateur permet de faire des choses incroyables, alors que ça restait dans les limites de l'écriture instrumentale (simple) alors que l'ordinateur aurait permis des écarts importants. En fait, si vraiment on souhaite écrire pour une instrumentation acoustique, pourquoi ne pas écrire de la musique de chambre ou de la musique soliste, et trouver les instrumentistes (ce qui est beaucoup moins difficile qu'on pourrait croire, les conservatoires en sont pleins !) ? Le fait d'oublier la surface sonore oblige aussi à oublier que les instruments ne réalise pas une copie conforme de la partition, que le système tempéré n'existe pas réellement dans le jeu acoustique et que ce qui est beau, c'est justement l'aspect vivant donné par des instrumentistes à une musique de notes, qui devient alors musique de sons. Quand le jeu est fait par un ordinateur, la musique de notes devient aussi musique de sons. Mais si le son ne plaît pas ou est difficile à entendre (ce qui est le cas de nos jours pour les sons de synthèse), alors la musique redevient musique de notes. Et si les notes en question (ou leur médium de transmission, comme le jeu vidéo par exemple, qui apporte ses propres caractéristiques esthétiques) ne sont pas assez exploitées pour pallier à l'absence du son, alors on se retrouve dans une musique qui demande tout à l'auditeur... Et ça n'est agréable pour personne ! On se retrouve alors dans un compromis éternellement instable entre esthétique et contingences pratiques (ou monétaires...). La solution ne se trouve pas loin : soit comme je l'ai dit investir dans un éditeur de partition équipé d'une banque de sons de qualité correcte (à un prix certes élevé sur le moment, mais qui devient dérisoire quand on l'étale sur le temps de l'activité de composition) ; soit assumer le médium informatique et faire comprendre à l'auditeur qu'on l'assume. C'est un choix difficile, que j'ai eu à faire aussi car je composais de la même manière que beaucoup ici il y a quatre ans : compositions tonomodales avec la synthèse de mon ordinateur, en me disant que le son n'était pas grave parce qu'on comprenait quel instrument c'était censé être. Mais mon professeur de Musique Assistée par Ordinateur m'a vite fait me rendre compte que je préférais le son de la synthèse ou des samples sonores fixés au son de l'instrument (j'ai depuis un peu changé à ce sujet, en travaillant avec les instrumentistes pour leur faire faire des choses qu'un ordinateur ne sait pas faire). C'est pour cela que bien que vous trouverez de la musique instrumentale sur mon site, soit elle est écrite dans le but d'être réalisée (avec les instrumentistes en tête - Litanies de Satan, Isis) soit le son est assez bon pour ne pas immédiatement choquer l'auditeur (Apophis, Anthologie). Du reste, je compose principalement des musiques électroacoustiques ou radiophoniques, qui ne sont pas des musiques de notes mais des musiques de sons. C'était une longue lecture, qui s'est peut-être répétée un peu, mais j'espère avoir au moins aidé pour certains à la réalisation de l'importance du choix du son dans la composition. Sachez donc que quand je parle du son de vos compositions, ce n'est pas par condescendance ou pour vous rabaisser, simplement pour vous amener à vous poser la question de l'esthétique, et à y répondre dans la musique. |
|
|
Je pense que les remarques de Nicolas s’appliquent particulièrement aux réalisations orchestrales (ou supposées telles…) mises en ligne sur ce site ou sur le précédent. Personnellement, j’ai eu à cœur, dans les pièces orchestrales mises en ligne, d’écrire effectivement pour les instruments variés de l’orchestre et leurs sons naturels, tels qu’ils peuvent être reproduits par les banques de sons, à partir de sons échantillonnés, réellement instrumentaux. La seule exception est celle de la « cymbale » que l’on entend dans la première partie de « thanatos II », sonorité que je vais d’ailleurs remanier ou remplacer. Prochainement, je mettrai en ligne la suite orchestrale de cette pièce et j’ai bien veillé à la « véracité » des sons utilisés. Bien entendu, l’informatique ne peut pas tout pour le rendu du son « life», mais la plupart du temps il est difficile de discerner une différence avec un enregistrement réel, sauf en ce qui concerne ce que j’appellerai la « présence du son ». Mais bien des enregistrements orchestraux ne sont pas meilleurs, de ce point de vue.
Pourquoi les pièces vraiment orchestrales (c'est-à-dire exécutables et exploitant pleinement les ressources orchestrales) sont-elles rares sur ce site comme sur le précédent, ou sur le site américain comparable « Youngcomposers » ? Ou alors, bien souvent, pourquoi l’orchestre est-il réduit à sa plus simple expression, ou bien pourquoi sonne-t-il comme un mauvais harmonium ? La réponse me semble être que les pièces orchestrales, pour être valables, sont longues et difficiles à réaliser, que les facultés d’écoute interne et de réalisation polyphonique sont parfois insuffisantes chez certains, à quoi on peut rajouter une domination insuffisante de l’outil informatique. Ma conclusion est que chacun est libre de composer ce qu’il veut, de mélanger les sons naturels ou non à sa guise et peut réaliser des pièces valables de cette façon, s’il est doué. Mais si l’on veut rester dans le réel de l’exécution musicale d’une pièce orchestrale, il faut remplir les conditions. |
Cet utilisateur a été remercié pour son message par: nicolasmarty
|
|
Nicholas,
Je reprends donc ici le débat « composition - réalisation informatique » suite à votre propre réponse N° 299 parue dans « Apophis ». Vous dites que travailler sans support instrumental ou informatique permet de développer l’oreille et qu’à écouter l’ordinateur on oublie le vrai timbre des instruments. Et, en conclusion, vous dites qu’une réalisation digitale correcte consiste à travailler les notes, leur timbre, leur mode de jeu une fois la partition finie. Je souhaiterais vous soumettre une autre façon d’aborder le problème, en vous indiquant ma façon de procéder, sans pour autant contester que le travail à la table représente un bon exercice pour l’oreille interne. Personnellement, j’imagine quelque – chose que je souhaiterais entendre (si vous voulez, c’est l’oreille interne), et j’essaie d’emblée de le réaliser directement à l’ordinateur dans toutes ses composantes : en quelque-sorte, ce travail est plus complet que le simple fait de noter sur une partition et permet, au contraire, de préciser ce que l’on doit mettre sur la partition, car le fait d’entendre est bien entendu un pas de plus par rapport à l’imagination. A mon avis, lorsque l’on procède ainsi soigneusement, le rendu sonore est tellement proche de vrais instruments qu’il est très difficile de faire la distinction. Pour cela, il faut de préférence utiliser et savoir utiliser un bon séquenceur et des sons échantillonnés à partir des instruments correspondants. C’est dans ce sens que je disais que la partition peut se faire de façon concomitante avec la réalisation digitale, et c’est ainsi que je rédige mes partitions. Je disais aussi que cette façon de procéder contribue à l’émergence des idées musicales. En effet, lorsque vous composez, vous devez vous souvenir constamment de ce qui précède, ce qui est beaucoup plus facile lorsque vous disposez d’emblée d’une réalisation audio – même digitale-.. On ne peut qu’admirer les grands compositeurs du passé qui ne bénéficiaient pas de cette facilité, mais croyez vous qu’il l’auraient négligée s’ils en avaient disposé ? Lorsque je fréquentais le conservatoire (il y a longtemps) j’avais constaté bien des « rigidités » par rapport aux développements nouveaux. Y aurait-il quelques reliquats ? |
|
|
Je serais un reliquat du conservatoire ?
Non, ne vous en faites pas. J'utilise moi-même beaucoup l'ordinateur, et bien heureusement il existe et permet à plus de gens de composer (et non seulement à ceux qui ont une oreille intérieure très développée). Simplement, il faut quand même être conscient des limitations qui en résultent : notamment, si vous composez toutes les caractéristiques du son en même temps, c'est très patient et bon de votre part, mais rendez-vous compte que ce n'est pas le cas de beaucoup de gens, qui se contentent d'utiliser les logiciels pour entendre une estimation de ce qu'ils composent, sans se rendre compte de la divergence avec la réalité acoustique. Beaucoup ici sont restés sur les stéréotypes du conservatoire restrictif qui transforment les gens en zombie... Mais si on reste sur cette image, alors je ne pourrais rien dire sans qu'on le rapporte à ça et qu'on le considère comme un formatage ou comme un jugement de valeur... Ce qui n'est évidemment pas mon intention... |
|
|
Voici une partie d'un texte que j'ai écrit dans le cadre de ma première année de master (l'année dernière) : "L'ambivalence de l'informatique en musicologie". Ici, je parle de composition. Les références des citations (alignées à droite) sont limitées au nom de l'auteur. Si vous souhaitez des références plus complètes, n'hésitez pas à demander.
Composition et informatique Plus besoin de connaître la musique pour en faire ; bientôt la machine l'écrit, l'arrange, la complète, l'organise selon les règles de la composition harmonique. Puis les progrès s'accélèrent: chaque nouveau synthétiseur recèle de plus en plus de mémoires, de séquenceurs, de capacités polyphoniques. Des logiciels arrangeurs – e Jay, Director Toys – ajoutent des thèmes d'accompagnement, d'autres encore répartissent les données en pistes, déplacent les notes une à une, changent de tempo sur un nombre illimité de pistes et de canaux. D'autres enfin, tel Reason, mêlent synthétiseur, mixer, sampler et boîte à rythmes en un même logiciel. La musique peut dès lors être créée par des gens qui ne l'ont pas apprise et qui utilisent tout le savoir accumulé par d'autres pour transformer des sensations personnelles, des rythmes intérieurs, des mélodies à peine esquissées ou empruntées en des compositions écrites sophistiquées, respectant les règles de l'harmonie et de l'arrangement. ATTALI, Jacques La musique composée par ordinateur a pu exister grâce aux développements technologiques. Ce ne sont donc pas les exigences artistiques de certains compositeurs qui ont présidé au développement des ordinateurs dans les années 50. C'est l'inverse qui s'est produit. C'est grâce à l'apparition de cette nouvelle technologie que certains musiciens ont pu commencer à composer à l'aide de l'ordinateur. Ce fait mérite d'être souligné. Car c'est bien la technologie qui a suscité une nouvelle recherche artistique, et non pas la musique qui a présidé à un développement scientifique spécifique. BABONI-SCHILINGI, Jacopo Ces deux citations montrent bien la situation de la composition au regard de l’informatique. Celle-ci a permis la collectivisation du savoir et des possibilités compositionnelles, entrainant donc une déprofessionnalisation du métier de compositeur. En effet, jusqu’au milieu du XXe siècle, le compositeur est la plupart du temps un individu très instruit musicalement par une institution ou un autre compositeur. Avec l’arrivée de l’informatique, des cours en ligne, des logiciels dont parle Attali, le compositeur peut aujourd’hui être n’importe qui (ou presque). Cela bien sûr a pour effet la profusion de compositions de médiocre qualité dans le monde. Mais on peut aussi voir comme une bonne chose l’ouverture de la musique aux non-spécialistes. Du côté de la composition savante (qui est celle qui nous intéresse ici), l’ordinateur a permis la naissance de nouvelles idées, de nouveaux modes de pensée. Il faut quand même préciser que cette pensée « computationnelle » et « informatique » était déjà en germe avant l’apparition de l’ordinateur, et surtout avant son intégration dans le monde de la musique. 1. Composition électroacoustique Les musiques concrète et électronique sont des précurseurs à ne pas nier à la musique informatique. Comme nous l’avons déjà dit, l’ordinateur reprend les tâches de la musique électronique, qu’il accomplit seul là où plusieurs machines étaient nécessaires avant lui. Pour ce qui est de la musique concrète, l’enregistrement numérique et Internet ont permis le stockage et le partage de milliers de fichiers sonores entre les compositeurs du monde. Plus besoin d’aller enregistrer une cloche d’église (ce qui est d’ailleurs d’une difficulté surprenante aujourd’hui, vu la quantité de pollution sonore), des centaines d’enregistrement d’églises du monde entier sont disponibles en quelques clics sur Internet. Plus besoin de développer ses propres outils compositionnels : des dizaines de logiciels compilent des fonctions aussi diverses que variées pour des sommes astronomiques que l’on peut éviter de payer en quelques clics supplémentaires. On a donc chez soi, aujourd’hui, l’équivalent d’un studio de musique concrète dans les années 60, mais cela en plus rapide, plus efficace, plus précis, et surtout moins personnel. Envahis par les multiples possibilités des logiciels et des plug-ins qui sont créés tous les jours par des amateurs ou des professionnels, le compositeur moyen ne pense plus à chercher ses propres outils et reste dans la ligne droite indiquée par les outils existants. Ne dramatisons pas : le milieu de la composition « savante » de musique par ordinateur est presque entièrement exempt de ce genre de comportement. Des compositeurs tels que Trevor Wishart et Jacopo Baboni Schilingi développent leurs propres outils , leurs propres algorithmes, leurs propres programmes d’interactivité, comme tous les compositeurs de musique mixte et de musique électroacoustique aujourd’hui. On a alors à disposition, si on prend la peine de fouiller et de programmer un peu, des milliards de possibilités de travail sur le son, ce qui ouvre bien sûr des voies nouvelles pour la composition. François-Bernard Mâche, pour son œuvre Manuel de résurrection, utilise une fonctionnalité de synthèse vocale pour recréer du mieux qu’il peut l’accent que l’on suppose aux égyptiens de l’Antiquité, à partir d’un texte en hiéroglyphes . Le problème ici est, et Mâche le reconnaît, qu’on ne peut pas obtenir un résultat réellement humain avec de la synthèse vocale… 2. Composition instrumentale Nous allons donc parler de l’utilité de l’informatique pour les compositeurs de musique instrumentale. Pas pour la musique algorithmique ou la composition automatisée (nous y viendrons), mais pour les compositeurs « savants » de musique purement instrumentale, donc qui n’ont pas nécessairement besoin de l’informatique pour composer. Celle-ci vient donc les aider dans leur tâche, et poser certains problèmes en échange de son aide… L’intérêt majeur de l’informatique pour les compositeurs dont nous parlons va donc être l’utilisation de logiciels de création de partitions. Nous parlons donc principalement de Finale et de Sibelius, les deux logiciels les plus utilisés. En bref, chacun permet au compositeur de créer et de personnaliser sa composition jusqu’à un très haut point. Cela demande bien sûr une technique et donc une pratique préliminaire, avant de pouvoir maîtriser certains des outils, notamment de présentation. Présentation qui pose les mêmes problèmes que PowerPoint, c’est-à-dire qu’une partition peut être très bien présentée, très lisible, et n’avoir aucun intérêt. Une autre difficulté rencontrée avec ces logiciels est l’impossibilité d’absence de barre de mesures dans le jeu. Les barres doivent être enlevées manuellement, mais sont quand mêmes comptabilisées par le logiciel lorsqu’il simule le jeu de la pièce. Ce genre de notation étant très courant chez les compositeurs contemporains, il est dommage que Finale et Sibelius ne propose pas de partitions de ce type comme modèles. L’aspect le plus intéressant pour beaucoup de jeunes compositeurs est la simulation du jeu de leur pièce. Les compositeurs qui ont aujourd’hui 50 ou 60 ans ont acquis pour beaucoup une oreille qui leur évite le recours à des simulations de jeu pour savoir ce que va donner leur pièce à l’écoute. Cela n’est pas le cas chez de nombreux jeunes compositeurs, qui testent souvent les résultats sur ordinateur pour confirmer une intuition. Après avoir rentré leur partition, et même au fur et à mesure qu’ils rentrent leur partition dans l’ordinateur, ils peuvent entendre ce qu’ils écrivent joué par des instruments virtuels de plus ou moins (plutôt moins) bonne qualité. Pour un jeune compositeur (je parle d’expérience), ceci est une révélation : alors que l’on ne peut pas entendre correctement ce que l’on écrit, l’ordinateur nous le fait entendre ! Mais cette possibilité d’écrire et d’entendre sa musique sur ordinateur est aussi le plus gros problème de l’utilisation de l’ordinateur chez ces compositeurs : d’une part, l’oreille intérieure n’étant pas sollicitée ne se développe pas chez ceux qui écrivent directement sur l’ordinateur ; d’autre part, l’ordinateur, présentant les mesures déjà tracées, proposant de choisir le nombre de mesures par ligne, incite à une écriture plus carrée, moins libre. Alors qu’à l’écriture sur partition, on trace ses mesures au fur et à mesure, on prend le temps de faire un plan général, et surtout on compose de la « bonne façon », c’est-à-dire en composant tous les caractères du son à la fois : on a tendance sur l’ordinateur à écrire les instruments séparément, à rajouter les nuances et les modes de jeu à la fin de l’écriture des hauteurs, ce qui n’est pas réellement de la composition sérieuse (BOSSEUR, Jean-Yves). Ainsi l’ordinateur, pour le compositeur savant de musique instrumentale, ne doit-il être qu’un outil de présentation permettant la lecture de la partition plus facile aux instrumentistes. Une des exceptions à cette « règle » est la composition pour des échelles non-tempérées. Le compositeur occidental moyen ne peut pas entendre de telles échelles intérieurement, et peut alors utiliser l’ordinateur pour cela. Des logiciels tels que l’orchestre virtuel East West (dont nous avons déjà parlé) ainsi que certains Native Instruments proposent des fonctions permettant de faire jouer une partition MIDI sur une échelle mésotonique notamment, ce qui est très intéressant à l’époque où le clavecin mésotonique revient dans l’estime des compositeurs. 3. Composition automatisée En 1956, un musicien muni d’une formation scientifique, Lejaren Hiller, et un mathématicien, Leonard Isaacson, entament une tâche de longue haleine qui aboutira l’année suivante à l’achèvement d’une œuvre pour quatuor à cordes, Illiac Suite, du nom de l’ordinateur sur laquelle elle a entièrement été composée : en effet ses quatre mouvements sont issus d’un programme, différent pour chacun, qui conduit l’auditeur d’une assez pâle imitation de formes musicales classiques jusqu’au dernier mouvement, d’un modernisme certain. (BATTIER, Marc) C’est bien l’ordinateur qui est utilisé simplement parce qu’il est là, et non pas la musique qui a développé quelque chose de personnel nécessaire à la création. Le programme d’Illiac Suite ayant été développé uniquement par des humains, la composition aurait pu être faite par des humains. Cela aurait probablement pris énormément de temps, mais peut-être moins que la programmation de chaque algorithme de composition des quatre mouvements. Charles Ames, à propos de la composition automatisée, ajoute que : Même si l’histoire de la musique a connu des précédents dans la composition automatisée, jamais de tels efforts ne se sont posés en opposition aussi marquée aux pensées fondamentales à propos de la nature de la créativité et des buts esthétiques de la composition. AMES, Charles Et plus loin, il ajoute que : Pour la plupart des compositeurs [dont il a parlé] dans cet article, la composition n’a pas été porteuse d’expression ou d’affect dans le sens commun de ces mots. Ces compositeurs attendent plutôt de l’auditeur qu’il juge leur « artefact » musical, comme les appelle Barbaud, en se basant sur des qualités plus abstraites telles que balance, clarté, profondeur […], etc. […] ils ont conclut d’expérience que beaucoup de problèmes compositionnels sont mieux traités par l’ordinateur que par l’humain. AMES, Charles On se trouve alors dans des considérations esthétiques sur la nature de l’art. Nous tenons donc à reposer la question de l’Ircam : « Peut-on parler d’art avec les outils de la science ? ». On pourrait penser que l’on s’éloigne du sujet, mais ce point soulève bien un autre niveau d’ambivalence de l’informatique : en effet, qu’est devenue la musique, discipline d’un niveau artistique très élevé, avec l’arrivée de l’informatique, et la déshumanisation de la composition ? Cela suppose bien sûr que l’on considère la programmation d’une composition par ordinateur comme un processus inhumain, ce qui est assez poussé. Nous ne nous aventurerons donc pas plus loin sur ce terrain dangereux, et terminerons sur une dernière parole de Charles Ames, datant de 1987, mais toujours valable aujourd’hui : L’industrie musicale devenant high-tech au fil des jours, et les adolescents possédant une expertise de programmation autrefois réservée aux vétérans des programmes doctoraux universitaires, la notion d’un compositeur/programmateur n’est plus un anathème. De plus en plus de compositeurs voient les ordinateurs non seulement comme des outils créatifs légitimes, mais efficaces en plus. Bien qu’on ne sache pas encore jusqu’où l’ordinateur va pénétrer dans ce domaine traditionnellement humain, il est déjà clair que la composition automatisée est une réalité établie de notre époque. AMES, Charles 4. Composition mixte Pour la musique mixte, l’ordinateur est presque indispensable. Certes, certaines œuvres mixtes ne sont absolument pas interactives, ayant d’une part une bande sonore (aujourd’hui un enregistrement numérique) et d’autre part le jeu des instrumentistes. Pour ces œuvres, l’ambivalence que nous venons d’évoquer pour les deux domaines (instrumental et électroacoustique) s’applique. Nous voulons donc parler de compositions interactives. Le logiciel le plus important pour ce genre de musique est MAX/MSP, un logiciel qui permet le traitement du son en temps réel, et l’écriture d’algorithme d’interactivité. Par exemple, dans une pièce pour piano, l’ordinateur (le logiciel MAX) pourra reconnaître le jeu par l’instrumentiste d’un pattern particulier, qui déclenchera le lancement d’une séquence sonore, ou alors l’activation d’effets sur le son du piano. Ce genre de composition est probablement la plus grande réussite de l’ordinateur, qui ne pose comme problème que les limitations imposées par l’aspect binaire de celui-ci. Mais cela étant compensé par le jeu absolument humain de l’interprète, l’informatique prend ici toute sa place. Jacopo Baboni-Schilingi considère qu’un compositeur de musique mixte doit pouvoir programmer ses propres algorithmes, afin de ne pas dépendre d’un informaticien. Cette conception est intéressante dans le sens où elle rejette l’approche scientifique de la composition algorithmique pour laisser la place d’honneur à la programmation musicale et au « système vécu ». Dès l’utilisation précoce de l’ordinateur en musicologie, des recherches ont été menées pour tenter de créer un système qui permettrait de faire interagir l’ordinateur et l’interprète. La première occurrence de ceci se trouve dans le développement dans les années 1980 par Larry Beauregard, un flûtiste canadien, d’une flûte reliée à un ordinateur par un ensemble complexe de câbles. Ces câbles transmettaient à l’ordinateur la position des doigts de l’interprète et la force de son souffle, afin de permettre à l’ordinateur de définir la note jouée (à partir d’une table de doigtés de référence). Celui-ci reconnaissait donc le jeu de l’interprète, et y répondait en l’accompagnant à partir d’une partition rentrée au préalable. Beauregard et Barry Vercoe avaient même développé un système qui autorisait les fausses notes et les changements de tempo de l’interprète sans que l’ordinateur n’arrête son accompagnement : mieux, le tempo s’adaptait au jeu de l’instrumentiste ! Dès les années 1980, on a donc les prémisses de ce que sera MAX/MSP dans le domaine de l’interactivité musicale. La difficulté qu’il reste aujourd’hui est de trouver des idées de modèles d’interactivité, sans reprendre éternellement les mêmes schémas. Mais laissons cela à l’imagination des compositeurs. |
Dernière édition: il y a 12 ans, 9 mois par nicolasmarty.
|
|
Nicolas
Quel long développement! Je ne répondrai qu'au paragraphe "composition instrumentale". Vous citer JY Bosseur dont je possède le livre "Révolutions Musicales" depuis le début des années 80. Quant on sait ce que sont devenues, après 30 ans, les nombreuses "révolutions musicales" doctement exposées (combien de compositeurs y sont allés de leur "révolution"! combien d'encre a coulé!), on ne peut que se méfier d'affirmations aussi péremptoires, comme celle qui consiste à dire que "composer sur ordinateur n'est pas sérieux". A mon avis, chacun est libre de composer comme il veut, pourvu que le résultat sois bon. Vous dite que "l'écoute intérieure ne se développe pas chez ceux qui composent directement sur ordinateur", ce que l'on peut discuter, mais avez-vous envisagé le cas des compositeur disposant d'une bonne écoute intérieure et trouvant plus efficace et plus intéressant de composer directement sur ordinateur? En ce qui concerne les barres de mesures, je ne comprends pas bien le problème: changer les barres de mesures ne demande que quelques secondes. Enfin, je ne vois pas en quoi l'ordinateur empêcherait de faire un plan de la pièce composée. |
|