====== 1) Audiobearbeitung ====== ===== 1.1) Theorie===== ==== Schallwellen ==== Schallwellen sind Druckschwankungen in einem Übertragungsmedium (z.B.Luft, Wasser), die von uns wahrgenommen werden können. \\ In der Analogtechnik wird der Schalldruck durch eine dazu proportionale elektrische Spannung repräsentiert. * ein Mikrofon wandelt den Schalldruck in die elektrische Spannung um * diese Spannung kann in andere anolge Darstellungsformen überführt werden * Magnetisierung (auf Tonband) * Ausleuchtung (auf die Tonspur beim Film) * mechanische Auslenkungen (zur Erstellung einer Schallplatte * am Ende übersetzt ein Lautsprecher die Spannung wieder in einen dazu analogen Wechseldruck {{:inf:inf8bi_201819_matura:pasted:20190501-093859.png?direct}} {{:inf:inf8bi_201819_matura:pasted:20190501-094005.png?direct}} ==== Ton ==== Ein Ton ist eine Schwingung, die durch periodische Regelmäßigkeit eine definierbare Grundfrequenz - die Tonhöhe - hörbar werden lässt. Der Klang eines Tons hängt von den Anteilen weiterer Schwingungen innerhalb der Grundschwingung ab. Ein Geräusch - etwa einer Rassel - hat dagegen keine periodische Grundschwingung, die Luftdruckschwankungen verlaufen so unregelmäßig, dass keine Tonhöhe definierbar ist. Die Übergänge zwischen Ton und Geräusch sind fließend, denkt man daran, dass sich Konzertpauken sehr wohl stimmen lassen, obwohl sie als perkussive Instrumente bereits sehr diffuse Klangspektren erzeugen. ==== Sound ==== Sound wird heute oft im 'Multimedia-Deutsch' für alles, was mit dem Audiobereich zu tun hat verwendet. Zum Teil geschieht das sicher aus Unkenntnis der Begriffe aus Akustik und Musik. Der Begriff **Sound** hat jedoch auch Vorteile, da er problematische Fragen der traditionellen Begriffe und Wissenschaftsdisziplinen ausblendet (Was ist Musik?!). ==== Sprache ==== Sprache ist danach ein geräuschhaftes=nichtperiodisches Klangereignis, das durch seine definierten Frequenzgemische sprachliche Lautmuster enthält. Im Gesang werden diese Lautmuster einer periodischen Schwingung aufmoduliert. Für gute Sprachverständlichkeit reicht ein Frequenzbereich bis 8 kHz vollkommen aus. ==== Beispiele für Schwingungen im Audibereich ==== === Sinuswelle === Das Urbild einer periodischen Schwingung, sie besitzt keine weiteren Frequenzanteile. {{:inf:inf8bi_201819_matura:pasted:20190501-090759.png?direct}} == Hörbereich == {{:inf:inf8bi_201819_matura:pasted:20190501-091445.png?400&direct}} Sinuswellenton in verschiedenen Frequenzen -> Teste dein Gehör! {{youtube>H-iCZElJ8m0?small|Sinuswelle in verschiedenen Frequenzen (20Hz bis 20kHz)}} === Rauschen === Schwingungschaos = das Gegenteil einer periodischen Schwingung. {{:inf:inf8bi_201819_matura:pasted:20190501-091621.png?direct}} === Kombination von Tonquellen === Addition von ähnlichen (kohärenten) Signalen führt zu einer Verstärkung der Amplitude. {{:inf:inf6bi_201920:pasted:20190908-103548.png?400&direct}} Addition von zeitlich verschobenen Tonsignalen führt zu einer Reduzierung der Amplitude. {{:inf:inf6bi_201920:pasted:20190908-103624.png?400&direct}} === Maskierungseffekt === {{youtube>_6tfEYlpYio?small|Maskierungseffekt}}\\ Maskierungseffekte (auch Verdeckung genannt) bewirken beim menschlichen Gehör, dass der Mensch in einem Geräusch bestimmte Frequenzanteile nicht oder nur mit verringerter Sensitivität wahrnehmen kann. So ist das Gehör beispielsweise nicht in der Lage, bei sehr lauten Bässen gleichzeitig sehr leise Töne im mittleren Frequenzbereich wahrzunehmen. Die Bässe maskieren hier die Mitten. Der Mindestpegel, von dem an diese Mitten wahrgenommen werden, hängt in diesem Beispiel vom Pegel des Basssignals und vom Frequenzabstand zwischen Basston und Mittenton ab. Im Bild ist die Wirkungsweise von Maskierungseffekten dargestellt. Ist zum Beispiel ein 1-kHz-Ton mit einem Schallpegel von 80 dB anwesend, so kann ein 2-kHz-Ton von 40 dB nicht mehr wahrgenommen werden. Das heißt, der 2-kHz-Ton kann weggelassen werden, ohne dass ein Mensch diesen Unterschied hört. Tritt zusammen mit einem 1-kHz-Ton von 80 dB ein 2-kHz-Ton von 60 dB auf, kann man beide Töne wahrnehmen. Aber man kann diesen 2-kHz-Ton mit sehr schlechter Qualität übertragen: Selbst Störgeräusche von 40 dB können vom Menschen nicht mehr wahrgenommen werden. {{:inf:inf6bi_201920:pasted:20190908-103730.png?direct}} Bei Verfahren zur verlustbehafteten Audiodatenkompression, wie beispielsweise MP3 oder Ogg Vorbis, werden solche Maskierungseffekte gezielt ausgenutzt, um Frequenzanteile, die wegen Maskierung zur Zeit unhörbar sind, für diesen Moment auszufiltern, oder um Frequenzbereiche, die teilweise maskiert werden, mit geringerer Qualität (d. h. mit geringerer Datenrate) zu übertragen. Für die Messung der wahrgenommenen Lautstärke spielen die Maskierungseffekte eine wesentliche Rolle. Denn hierüber wird beschrieben, welche Nervenzellen von einem Geräusch überhaupt angeregt werden. Die Summe aller Nervenerregungen spiegelt die empfundene Lautstärke wider. === Hochpassfilter === Ein Hochpassfilter lässt, wie der Name erahnen lässt, Audiosignale oberhalb einer bestimmten (möglicherweise einstellbaren) Frequenz durch, während Frequenzen darunter abgedämpft werden. === Tiefpassfilter === Ein Hochpassfilter lässt, wie der Name erahnen lässt, Audiosignale unterhalb einer bestimmten (möglicherweise einstellbaren) Frequenz durch, während Frequenzen darüber abgedämpft werden. ===== Digitalisierung von Audio ===== Grundsätzlich sind Daten im Audiobereich zeitkritisch, d.h. sie stellen Anforderungen an Hard- und Software, die historisch gesehen atypisch für einen 'Rechner' sind. Bis heute sind damit Geschwindigkeits-, Bandbreiten- und Speicherprobleme verbunden, die von technischen und ökonomischen Rahmenbedingungen abhängen. \\ \\ Um den Sound am Computer bearbeiten zu können, müssen die analogen elektrischen Signale in digitale Daten umgewandelt werden. \\ \\ Damit Audiodaten aufgenommen und wiedergegeben werden können, werden **A**(nalog)/**D**(igital)-Wandler (**AD-Converter**) bzw. **D/A**-Wandler (**DA-Converter**) benötigt. Diese werden i.d.Regel von der Soundkarte zur Verfügung gestellt. * hierbei wird die analoge Spannung in einem regelmäßigen Zeittakt (**Samplingfrequenz**) gemessen. * Diese Messwerte sind je nach ausgewählter **Bittiefe** aufgelöst * heraus kommt eine zahlencodierte Nachbildung des analogen Signals als eine **Abfolge von diskreten Schritten** \\ \\ Beim Abspielen dieser Meßwerte wandelt ein Digital-AnalogConverter (DAC) den Zahlencode wieder in eine Spannung um, die vom Lautsprecher wieder in Schalldruck umgesetzt wird. {{:inf:inf8bi_201819_matura:pasted:20190501-094740.png?300&direct}} Beim Computer befinden sich die beiden Converter in der Soundkarte oder sind schon direkt im Mainboard integriert. {{:inf:inf8bi_201819_matura:pasted:20190520-184816.png?direct}} ====Kanäle ==== Eine Audiodatei kann mehrere Kanäle haben. Verbreitet sind Mono (ein Kanal), Stereo (2 Kanäle) und 5.1 bzw. 7.1 (Surround). Ein Kanal liefert jeweils die Informationen für einen der Lautsprecher und ist ein eigenständiges Audiosignal. Das heißt wir können eine Stereo-Datei aufteilen und in zwei Mono Dateien speichern. ==== Samplingrate/Samplingfrequenz === Bei der Digitalisierung werden in **regelmäßigen zeitlichen Abständen Messproben (Samples)** des analogen Ausgangssignals entnommen. Die **Abtastrate** wird **pro Sekunde** angegeben. {{:inf:inf8bi_201819_matura:pasted:20190501-094919.png?direct}} z.B. :Für die Audio-CD wird mit 44.100 Hz (also 44100 mal in der Sekunde) gemessen. {{:inf:inf8bi_201819_matura:pasted:20190501-123408.png?direct}} === Aliasing === Beim Digitalisieren können Frequenzen entstehen, die im Original nicht vorhanden sind. Diese Artefakte oder 'Aliasfrequenzen' des Digitalisierungsvorgangs sind Ergebnisse einer **unzureichenden Abtastfrequenz**. Die **Abtastrate** muss **mindestens das Doppelte der zu digitalisierenden Frequenz** (siehe Abtasttheorem nach Nyquist/Shannon) betragen. Je höher die Abtastrate, desto besser ist die Audioqualität nach der Digitalisierung. == Beispiel == Das folgende Originalsignal zeigt in der Skizze eine Sinuswelle mit der Schwingungsdauer von T=250ns. \\ \\ Das heißt die Frequenz (`1/s = Hz`) des Orignalsignals ist: `1/250ns` => `1/250*10^9 s` => `1/250*10^9 s` => `4000000 *1 /s` => `4000000 Hz` => `4 MHz` D.h. Um ein 4-MHz-Signal korrekt wiedergeben zu können ist eine minimale Abtastrate von 8 MHz notwendig. Wird diese Grenzfrequenz unterschritten, entstehen Artefakte, die mit dem ursprünglichen Signal nichts mehr zu tun haben. {{:inf:inf8bi_201819_matura:pasted:20190501-123718.png?direct}} ==== Bittiefe ==== Für die jeweiligen Samples stehen nur eine begrenzte Anzahl an Messwerten zur Verfügung. Die für das Digitalisieren gewählte Bittiefe bestimmt diese Menge, die sich über den Messbereich verteilt. \\ \\ Mit der **Bittiefe ist die Länge der Binärzahlen** gemeint, aus denen die digitale Audiodatei letztendlich besteht. Binärzahlen sind Zahlen, die nur aus Nullen und Einsen bestehen. Ein Computer rechnet in seinem Inneren nur mit diesen Zahlen. * 1 Bit --> 21 = 2 Zustände (0 oder 1) * 2 Bit --> 22 = 4 Zustände (0 bis 3) * 3 Bit --> 23 = 8 Zustände (0 bis 7) * ... === Abtastung mit Bittiefe = 3 === {{:inf:inf8bi_201819_matura:pasted:20190501-095303.png?direct}} ==== Bitrate ==== Die Bitrate (kBit/s) wird gern mit der Auflösung verwechselt. Sie steht für die „Bandbreite“ der Audiodatei, also welche Datenmenge in einer Sekunde verarbeitet wird. Für unkomprimierte Formate wie WAV und AIFF berechnet man die Bitrate ganz einfach, indem man die drei Werte von oben multipliziert: Bitrate = Kanäle x Samplingrate x Bittiefe === Beispiel === Eine Stereo WAV-Datei in CD-Qualität hat eine Samplingrate von 44,1kHz & Bittiefe von 16Bit. 2 Kanäle x 16 Bit x 44,1 kHz = 1411,2 kBit/s ==== unkomprimierte Audioformate ==== Für unkomprimierte Audiosignale gibt es für den Computer die Formate **WAV(Windows)**, **AIFF (Macintosh)**, **AU (Linux)** und **PCM**. \\ \\ Diese Formate unterscheiden sich nicht wesentlich. Sie können Audio prinzipiell in jeder Samplingfrequenz und Bittiefe speichern. Die Wahl richtet sich dabei nach der gewünschten Wiedergabequalität, der Downloadgeschwindigkeit und der Speicherplatzverfügbarkeit. \\ \\ Üblich sind folgende Kombinationen: ^Qualität^Bittiefe^Samplingfrequenz Hz^Anzahl Kanäle^Downloadrate kbit/s^Speicherbedarf MByte/min^ |Telefon|8|8000|1 (Mono)|62,5|0,5| |Radio|16|22050|1 (Mono)|352,8|2,8| |CD|16|44100|2 (Stereo)|1378,1|11| |DVD|24|48000|6 (5.1-Sound)|6750,0|54| ==== komprimierte Audioformate ==== Für die meisten Anwendungen ist der Speicherverbrauch unkomprimierter Formate zu hoch (z.B. für Downloads aus dem Internet, als Soundtrack für Videos auf CD oder DVD) \\ \\ Für solche Fälle gibt es Formate, welche die Datenmenge reduzieren, indem sie nicht hörbare Frequenzen eliminieren. \\ \\ Diese Verfahren verschlechtern die Qualität mit jedem Kompressions- und Dekompressionsvorgang und sind daher für die Zwischenspeicherung nicht zu empfehlen. Es sollte daher beim Editieren möglichst lange mit der unkomprimierten Datei gearbeitet werden, bis man das Endresultat schließlich für die finale Anwendung passend komprimiert. \\ \\ Beispiele für die Anwendung vom Komprimierungs-Codecs: ^Anwendung^Qualität^Codecs^Original kbit/s^Komprimiert kbit/s^Kompressionsfaktor^ |Internet Echtzeit-Streaming| Telefon bis Radio|mp3, mpeg4, wma, RealAudio, ogg, vorbis|689-1378|30-60|ca. 11-45| |Internet Download|quasi-CD|mp3, wma, ogg, vorbis|1378|128|10,7| |DVD|quasi-DVD|AC3, mpeg2|6750|448 (AC3)|15(AC3)| ==== Streamingdienste ==== Streaming Audio ist eine Variante des Streaming Media, bei der Audiodaten kontinuierlich über ein Rechnernetz übertragen werden. In seiner einfachsten Form kann man sich Streaming Audio als Hörfunk im Internet vorstellen. \\ \\ Musik-Streaming beschreibt die Option, jederzeit stationär oder mobil auf viele Millionen Musikstücke zugreifen zu können. Die Songs und Alben lagern in der Cloud und können via Internetverbindung bei verschiedenen Anbietern auf Anfrage abgerufen werden. Das Prinzip des Musikhörens auf Abfrage per Flatrate liegt voll im Trend. Eindeutige Indizien liefern stetig steigende Nutzerzahlen der Abo-Dienste. Die wichtigsten Anbieter der Branche verzeichnen ein konstantes bis atemberaubendes Wachstum. Ein Ende der Erfolgsgeschichte ist vorerst nicht abzusehen. \\ \\ **Spotify** nennt diesbezüglich mittlerweile Zahlen weit jenseits der 100 Millionen-Marke. Auch Apple Music ist auf dem Vormarsch und spricht von knapp 30 Millionen zahlenden Nutzern. Immer mehr Menschen setzen auf Musik-Streaming und lassen die CD oder auch Schallplatte im Regal verstauben. Doch die Konkurrenz schläft nicht. Der Markt hält zahlreiche weitere Angebote bereit. So buhlen unter anderem Google mit Play Music, Amazon mit Prime Music und Music Unlimited, Napster, Deezer, Tidal oder auch SoundCloud Go um die Gunst der Hörerschaft. {{:inf:inf8bi_201819_matura:pasted:20190510-135552.png?direct}} ===== 8.2) Praxis mit Audacity ===== Die Audiobearbeitung gehört zu den Grundlagen der Musikproduktion und wird auch »Audio Editing« genannt. Die Bearbeitung von Audiodateien findet in der Regel vor dem Abmischen statt. Allerdings spricht man auch von Audiobearbeitung, wenn man nur Knackser aus MP3 Dateien entfernen oder MP3s schneiden möchte. \\ \\ Ein mögliches Programm für Audio Editing ist: * [[http://elearn.bgamstetten.ac.at/wiki/lib/exe/fetch.php?media=inf:audio:audacity.pdf|Programm Audacity ]] * [[https://www.youtube.com/watch?v=mAhL5pbl98s|Eine Anleitung auf YouTube]] * [[http://audacity.medpaed.de/index.html|Eine Reihe kurzer Filme zur Einführung in Audacity]] **--> mit Microsoft Edge öffnen** * [[.:1:Shortcuts Audacity]] * [[.:1:Übungen]] {{:inf:inf8bi_201819_matura:pasted:20190510-132718.png?direct}} ==== Destruktive vs. Non-destruktive Audiobearbeitung ==== Sehr wichtig für deine Audiodateien ist die Unterscheidung zwischen **destruktiver** und **non-destruktiver Audiobearbeitung**. Als **destruktiv** wird die Bearbeitung von Audiodateien dann bezeichnet, wenn die **Änderung an der Originaldatei** selbst durchgeführt und festgeschrieben werden (Bsp. Audacity). Ist die Änderung erst einmal gemacht, lässt sie sich **nicht mehr rückgängig** machen. \\ \\ Bei der **non-destruktiven Audiobearbeitung** werden die Änderungen **nicht fest in die Datei geschrieben** (Bsp. Reaper). Das Programm zur Bearbeitung merkt sich in diesem Fall nur, wie die Datei zu klingen hat und **berechnet die Änderungen in Echtzeit beim Abhören**. Möchtest Du die **Änderungen festschreiben**, so musst Du die Datei **exportieren (bouncen)** – in eine neue Datei. Dein **Original bleibt jederzeit unangetastet** und Du kannst schnell zum Ursprung zurückkehren. === Vorteile non-destruktiv === * Das Original ist jederzeit sicher * Du kannst immer wieder von vorne beginnen … * und ganze neue Effekte ausprobieren * Fehler lassen sich leicht ausmerzen === Vorteile destruktiv === Selbst wenn die Audiorechner heute eine Menge Leistung bereithalten – sie ist endlich. Und spätestens hier kommt die destruktive Audiobearbeitung ins Spiel. Schreibst Du die Effekte in die Datei fest (destruktiv), wird keine zusätzlcihe Rechenleistung für die Berechnung der Effekte mehr benötigt. Diese Audiodatei wird von allen Geräten und Musikprogrammen in exakt demselben Zustand abgespielt. ==== Normalisieren von Audio ==== Als **Normalisierung** wird in der Audiotechnik der Vorgang bezeichnet, die Amplitude analogen oder digitalen Audiomaterials so zu vergrößern oder zu verkleinern, dass sie innerhalb eines vorgegebenen Bereichs liegt. Es gibt im Wesentlichen zwei Gründe, warum normalisiert wird – zum einen technische Rahmenbedingungen bei der Übertragung bzw. Speicherung des Audiomaterials, zum anderen die Anpassung der Lautheit (vom Menschen empfundene Lautstärke) des Materials. \\ \\ Die Funktion „Normalisieren“ ist zum Beispiel dann sinnvoll, wenn **mehrere Musikstücke hintereinander** abgespielt werden sollen. Mit der Normalisierung der Audiodaten kann eine gleichmäßigere Lautstärke über das gesamte Album hinweg erreicht werden bzw. verhindert werden, dass einzelne Stücke so leise im Vergleich sind, dass der Hörer die Lautstärke an der Stereoanlage verändern muss. ==== Equalizer ==== Erlaubt einzelne Bereiche des Frequenzspektrums gezielt lauter oder leiser zu machen. {{:inf:inf6bi_201920:pasted:20190908-103136.png?direct}} ==== Effekt: Fade-In & Fade-Out (Einblenden & Ausblenden) ==== Fade-Ins und Fade-Outs werden dazu genutzt, das Audiosignal **sanft ein- bzw. auszublenden**. Das kennst Du beispielsweise aus dem Radio, wo ein Song reinkommt oder wieder rausgefahren wird, während die Moderation startet. \\ \\ Wenn bei einer Aufnahme die Welle nicht mit einem Nullpunkt beginnt, führt dies zu einem mehr oder minder leisen Knackser. Auch an den Übergängen zweier Audioclips kann es zu einem solchen Knacksen kommen. Eine sehr kurze Einblendung, ein Fade-In zu Beginn und eine Ausblendung, ein Fade-Out am Ende sorgen hier für Nullpunkte und damit knackserfreie Übergänge. \\ \\ Viele Musik- und Audiobearbeitungsprogramme machen das inzwischen automatisch am Beginn und am Ende einer Audiodatei. Die Handbücher weisen dieses Feature als »automatic fade«, »Auto-Fade«, »automatische Ein-/Ausblendung« oder dergleichen aus. ==== Tempo ändern ==== Das Tempo, auch Zeitmaß, gibt in der Musik an, wie schnell ein Stück zu spielen ist, bestimmt also die absolute Dauer der Notenwerte. ==== Tonhöhe ändern ==== Die Tonhöhe wird in der Praxis mit der **Frequenz (Schwingungsanzahl pro Zeitspanne) eines hörbaren Tones** gleichgesetzt, genauer: mit der **Grundfrequenz**, also der Frequenz des tiefsten Teiltons in dem betreffenden Klang. Die Tonhöhe ist neben der Tondauer, der Lautheit und der Klangfarbe eine wichtige Eigenschaft musikalischer Töne und der Vokale gesprochener Sprache. {{:inf:inf6bi_201920:pasted:20190916-122718.png}} ==== Lautstärke ändern==== Die Lautstärke ist die physikalisch messbare Amplitude oder Stärke des Schalls (z. B. als Schalldruck bzw. als Schalldruckpegel). {{:inf:inf6bi_201920:pasted:20190916-122705.png}} ==== Audioformate ==== Die Vielzahl der digitalen Audio ist für den Nutzer manchmal verwirrend. Hier findest du eine Übersicht der gängigsten Audioformate und deren Dateiendungen inklusive einer Kurzbeschreibung. === .WAV - wave form audio === Das WAV Dateiformat dient der digitalen Speicherung von Audiodaten. In den allermeisten Fällen enthält eine WAV Datei dabei unkompimierte Rohdaten. Der Verzicht auf eine Komprimierung bedeutet folglich, dass die Auiodatei in höchster Qualität gespeichert ist. Allerdings erfordert dies einen enormem Speicherbedarf. Zwei Minuten Musik können schnell um die 20 Megabyte (MB) Platz belegen. === .MP3 - MPEG-1 Audio Layer 3 === Von einer Expertengruppe entwickeltes Audioformat mit standardisierten Komprimierungsverfahren. Die Vorteile von MP3 Audiodateien sind die vergleichsweise kleinen Dateien bei dennoch sehr guter Qualität. In der Praxis bedeutet dies, dass Sie den Inhalt einer kompletten Musik CD ohne wahrnehmbare Qualitätsverluste auf die Größe von 10 bis 20 Megabyte (MB) reduzieren können. === .WMA - Windows Media Audio === Ein von Mirosoft © entwickeltes Audioformat für Windows Betriebssysteme. Hohe Kompression mit guter Qualität. Das bedeutet relativ kleine Dateien und dennoch Musik- oder Sounddateien mit guter Qualität möglich. === .AAC - Advanced Audio Coding === Ein ebenfalls von der MPEG (Moving Picture Experts Group) entwickeltes Audiodatenkompressionsverfahren. AAC gilt als qualitativ verbesserter Nachfolger von MP3. Die Vorteile von AAC Audiodateien sind die vergleichsweise kleinen Dateien bei dennoch exzellenter Qualität. In der Praxis bedeutet dies, dass Sie den Inhalt einer kompletten Musik CD ohne wahrnehmbare Qualitätsverluste auf die Größe von 10 bis 20 Megabyte (MB) reduzieren können. === OGG - Ogg Vorbis genannt === Ein freier (patentfreier) Codec zur verlustbehafteten Audiodatenkompression, der von der Xiph.Org Foundation als Alternative zum weit verbreiteten MP3 Format entwickelt wurde. ==== Creative Commons Lizenzen ==== Creative Commons (abgekürzt CC; englisch für schöpferisches Gemeingut, Kreativallmende) ist eine gemeinnützige Organisation, die 2001 in den USA gegründet wurde. Sie veröffentlicht verschiedene **Standard-Lizenzverträge**, mit denen ein **Autor der Öffentlichkeit** auf einfache Weise **Nutzungsrechte an seinen Werken einräumen** kann. Diese Lizenzen sind nicht auf einen einzelnen Werkstyp zugeschnitten, sondern für beliebige Werke anwendbar, die unter das Urheberrecht fallen, zum Beispiel Texte, Bilder, Musikstücke, Videoclips usw. Auf diese Weise entstehen Freie Inhalte. Entgegen einem häufigen Missverständnis ist Creative Commons nicht der Name einer einzigen Lizenz, sondern einer Organisation. Die **verschiedenen Lizenzen von Creative Commons** unterscheiden sich erheblich. Einige CC-Lizenzen schränken die Nutzung relativ stark ein, andere wiederum sorgen dafür, dass auf das Urheberrecht so weit wie möglich verzichtet wird. Veröffentlicht jemand beispielsweise ein Werk unter der Lizenz CC-BY-SA, dann erlaubt er die Nutzung durch andere Menschen unter der Bedingung, dass der Urheber sowie die betreffende Lizenz angegeben werden. Darüber hinaus darf der Nutzer das Werk unter der Bedingung verändern, dass er das bearbeitete Werk unter derselben Lizenz veröffentlicht [[https://creativecommons.org/licenses/?lang=de| siehe Creative Commons Lizenzen - WICHTIG, da prüfungsrelevant! ]] [[ https://www.tu-chemnitz.de/urz/archiv/kursunterlagen/multimedia/audio.html#Sound_44_was_ist_das_63 ]] [[ https://www.grund-wissen.de/physik/akustik/eigenschaften-von-schall.html#:~:text=somit%20ihre%20Wellenlänge.-,Töne%2C%20Klänge%20und%20Geräusche,regelmäßige%20Sinusschwingung%20mit%20fester%20Frequenz.&text=Ein%20Klang%20setzt%20sich%20aus%20mehreren%20Tönen%20zusammen.]]