Computer - das universelle Instrument?

Autor: Roger Morrison
Erstelldatum: 20 September 2021
Aktualisierungsdatum: 21 Juni 2024
Anonim
Wintergatan - Marble Machine (music instrument using 2000 marbles)
Video: Wintergatan - Marble Machine (music instrument using 2000 marbles)

Inhalt


Quelle: Djmilic / Dreamstime.com

Wegbringen:

Neue technologische Fortschritte reduzieren die Latenz bei der browserbasierten Audiointeraktion und ermöglichen eine optimierte Audiosynthese, Planung und Remote-Zusammenarbeit.

Ich habe viel Schlagzeug gespielt. Ich habe nie so gut angefangen, mehr oder weniger im Alter von ungefähr 16 Jahren und mit ungefähr 30 Jahren aufgehört. Aber ich möchte sagen, dass ich nie wirklich angefangen oder aufgehört habe, weil ich versucht habe, Rhythmen zu kreieren, indem ich meine Hände geschlagen habe auf Schreibtischen / Tischen / was auch immer, seit ich ein kleines Kind war. Jetzt verbringe ich viel Zeit damit, auf einer Tastatur zu tippen. Sie können sich also vorstellen, wie aufgeregt ich war, als ich herausfand, dass nicht nur virtuelle Drums verfügbar sind, sondern auf viele auch über die meisten gängigen Webbrowser direkt zugegriffen werden kann.

Virtuelle Instrumente auf dem Vormarsch

Abgesehen vom Schlagzeug liebe ich auch Gitarre, Klavier und Synthesizer. Schall besteht im Wesentlichen aus Wellen (wahrnehmbare Schwankungen des atmosphärischen Drucks), die miteinander kombiniert werden können, um sattere und komplexere Klänge zu erzeugen. Die Audiosynthese ist ein Prozess, bei dem die richtigen Frequenzen (durch Oszillationen oder andere künstliche Mittel) und Wellenkombinationen (und manchmal Filter) gefunden werden, um wünschenswerte neue Klänge zu erzeugen oder zu synthetisieren. Und synthetisierte Musik integriert synthetisierten Klang in Musiksysteme. wie die westlichen chromatischen, diatonischen und pentatonischen Skalen.


Musik - wie Animation, Erzählung und viele andere Disziplinen - ist eine zeitliche Kunstform. Es wird im Allgemeinen als eine Folge von Klängen mit einem gewissen Gefühl für ein geregeltes Timing (Rhythmus) sowie für den Übergang (Melodie) und die Übereinstimmung (Harmonie) von Tonhöhe / Frequenz dargestellt. Und da das Timing für die meisten Musiktitel von grundlegender Bedeutung ist, spielt die Latenz bei jedem Musikgerät eine zentrale Rolle. Im Allgemeinen ist die Verwendbarkeit des Instruments umso höher, je geringer die Latenz ist.

Der Pionier der Musiktechnologie, Max Mathews, sagte einmal: "Es gibt keine theoretischen Einschränkungen für die Leistung des Computers als Quelle musikalischer Klänge." Während seines gesamten Lebens stellte er fest und behauptete, dass der Computer bald zu einem universellen Musikinstrument werden wird Sie können alle Sounds oder Audioumgebungen emulieren und gleichzeitig völlig neue und originelle Audioereignisse und -erlebnisse erstellen.


Die Zukunft der Musikproduktion

Die primitiven Grundlagen des Klangs werden als Sinuswellen bezeichnet - reine Töne, die bei einer bestimmten Frequenz zyklisch auftreten und schwanken. Die Audiosynthese kann additiv oder subtraktiv sein: Die erste Methode kombiniert reine Töne, um einzigartige Klänge zu erzielen, und die zweite filtert die Schallwellen einer Quelle. Mit anderen Worten, eine gute Analogie für Additive könnte das Formen mit Ton sein, während subtraktiv eher dem Schnitzen aus Holz gleicht.

Ein Großteil der Entwicklung der Computermusik wird mit der von MIDI-Elektronik und -Protokollen geteilt. Der Standard (Abkürzung für Musical Instrument Digital Interface) ermöglichte Musikern ursprünglich die Erstellung digitaler Daten, die die grundlegenden Eigenschaften bestimmter musikalischer Phrasen wie Tonhöhe und Timing darstellen. Diese MIDI-Dateien können somit über verschiedene Synthesizer oder MIDI-kompatible Anwendungen abgespielt werden und liefern die grundlegenden Musikdaten über variable Ausgänge.

In seiner Anfangszeit war MIDI stark eingeschränkt, da es nur mit einer begrenzten Anzahl von Geräten interagieren konnte und seine Funktion nur einen begrenzten Umfang hatte. Im Laufe der Zeit haben MIDI-Plugins und -Erweiterungen dem Standard jedoch die Anpassung an viele verschiedene neue Situationen und Umgebungen ermöglicht. Dies hat den Standard viel weiter in den Mainstream gebracht als jemals zuvor.

Während die Audiotechnologie von veralteten Hardwareschnittstellen (wie Mischpulten und analogen VU-Messgeräten) auf unsere Computer und Mobilgeräte übergeht, müssen Musiker nicht mehr mit übermäßigem Equipment arbeiten, müssen sich aber zunehmend auch nicht mehr so ​​leicht bedienen lassen traditionelle Instrumente bieten in der Regel. Dies hat zu einigen Veränderungen in Richtung neuer Hardware-Schnittstellen geführt, die problemlos mit digitalen Arbeitsstationen wie Laptops und Desktop-Computern verbunden werden können. (Weitere Informationen zur Entwicklung der Musikindustrie im digitalen Zeitalter finden Sie unter Von Schallplatten zu digitalen Aufnahmen.)

Keine Bugs, kein Stress - Ihre schrittweise Anleitung zur Erstellung lebensverändernder Software, ohne Ihr Leben zu zerstören

Sie können Ihre Programmierkenntnisse nicht verbessern, wenn sich niemand um die Softwarequalität kümmert.

Neben der Benutzerfreundlichkeit ist die einfache Zusammenarbeit der Schlüssel zur Entwicklung der digitalen Musik. Dies ist ein großer Teil dessen, was Web Audio API zu einer der bedeutendsten digitalen Audio-Innovationen in der jüngeren Vergangenheit macht. Diese auf Java basierende Audiolösung enthält eine Schnittstelle namens AudioCon, in der Prozesse skriptgesteuert und als präzise zeitgesteuertes, synthetisiertes Audio in eine Ausgabe übersetzt werden.

Die API ist noch jung, aber auch sehr vielversprechend - nicht nur für Audiophile, sondern auch für Programmierer und Webentwickler. Im Vergleich zu älteren eingebetteten Audioformaten bietet die Web Audio API eine sehr geringe Latenz innerhalb der Benutzeroberfläche. Es werden bereits viele verschiedene virtuelle Musikinstrumente entwickelt, und es wird davon ausgegangen, dass die Web-Audio-API im Online-Gaming zunehmend Verwendung finden wird.

Während akustische Musik wahrscheinlich nie ganz verschwinden wird, wird die Audiosynthese im digitalen Raum weiterhin eine immer wichtigere Rolle bei der modernen Aufnahme, Produktion und Bereitstellung von digitalem Audio spielen. Web Audio API beschleunigt den Fortschritt bei digitalen Audios, indem es neue DAW-Schnittstellen, Plattformen und Audiolösungen durch verbesserte Benutzerfreundlichkeit und Zugänglichkeit ermöglicht.