Muzyka AI – rozpoznawalność, recepcja, oceny, postawy
Autor: Krystian Pietrzyk
Założenia badań
Muzyka generowana przez sztuczną inteligencję towarzyszy nam od szeregu lat, niemniej powszechnym zjawiskiem kulturowym stała się za sprawą popularnych programów, takich jak Flow Machines, AIVA, Amper Music czy Suno. Na kanałach streamingowych znajdziemy coraz więcej utworów stworzonych przy udziale AI. Nurtującym pytaniem staje się problem: jak oceniać tę muzykę, a prymarnym, czy przeciętny słuchacz jest w stanie określić, rozpoznać utwory tworzone przez programy oparte na AI? Postanowiłem sprawdzić, czy studenci kierunków artystycznych i pedagogicznych potrafią odróżnić utwory stworzone przez człowieka od wygenerowanych przez algorytmy, czyli wskazać utwory stworzone przez AI, jak je odbierają, oceniają, jakie wartości im przypisują.
W celu odpowiedzi na te pytania stworzyłem kwestionariusz oraz test zadaniowy składający się z 12 par fragmentów utworów muzycznych, z których każdy trwał 45 sekund. W każdej parze znajdował się jeden utwór skomponowany przez człowieka oraz jeden wygenerowany przez system AI (Suno AI lub AIVA). Prezentowane utwory przynależały do różnych stylów i gatunków, była to muzyka pop, rock, rap/hip hop, muzyka elektroniczna, ale również XIX-wieczna symfonika, klasyczne utwory fortepianowe i chóralne. Respondenci mieli za zadanie rozróżnić muzykę stworzoną przez człowieka i przez sztuczną inteligencję oraz udzielić odpowiedzi na kilka pytań.
Głównie interesowała mnie rozpoznawalność utworów – skuteczność badanych w odróżnianiu kompozycji ludzkich od generowanych przez sztuczną inteligencję, ale również ocena emocjonalności i autentyczności prezentowanych kompozycji, ocena wartości artystycznych muzyki tworzonej przez programy oparte na sztucznej inteligencji (jak świadomość, że utwór został wygenerowany przez algorytm, wpływała na ocenę jego wartości?), preferencje estetyczne badanych (które utwory bardziej się podobały?), postawy wobec muzyki AI (jak badani oceniają przyszłość muzyki tworzonej przez AI?).
Badana grupa stanowiła 57 osób – 25 studentów edukacji artystycznej w zakresie sztuki muzycznej oraz 32 studentów animacji kultury.
Rozpoznawalność utworów
Rozpoznawalność to liczba poprawnych wskazań, jako wyniki średnie i w przeliczeniu procentowym. W teście 12 par fragmentów muzycznych (0–12 pkt) średnia rozpoznawalność wyniosła 6,44 pkt, tj. 53,7%. Niewielkie różnice wystąpiły w dwóch badanych grupach. Średnia poprawnych wskazań w grupie osób wykształconych muzycznie (N = 25) wyniosła 6,8 pkt, tj. 56,7% poprawnych odpowiedzi, w grupie bez wykształcenia muzycznego (N = 32) 6,16 pkt, czyli 51,3%.
Wykres 1. Procent poprawnych i niepoprawnych wskazań muzyki tworzonej przez AI (N = 57)
Źródło: opracowanie własne.
Można stwierdzić w całej próbie badawczej wyniki wskazują na trudność w odróżnianiu utworów wygenerowanych przez AI od kompozycji stworzonych przez człowieka. Poprawność identyfikacji nieco wyższa od 50% przy dwóch możliwych wyborach niewiele różni się od trafienia losowego na „chybił–trafił”.
Różnice wykazują kierunek zgodny z oczekiwaniami (wyższe wyniki w grupie z formalnym przygotowaniem muzycznym), ale nie są to duże różnice. Z badań wynika, że nawet osoby kompetentne muzycznie nie potrafią stwierdzić, który utwór jest stworzony przez człowieka, a który wygenerowany przez AI.
Rola kompetencji muzycznych okazała się tutaj mniejsza, niż można było przypuszczać. W niewielkim zakresie znajomość praktyki wykonawczej i osłuchanie analityczne z kompozycjami i brzmieniami poszczególnych instrumentów, a także wiedza teoretyczna były pomocne. Umiarkowana skala różnic między grupami wskazuje na to, że algorytmy generatywne w wielu wypadkach zacierają ślady pochodzenia na poziomie odbioru brzmieniowego.
Warto odnotować, że poza grupą studencką przebadano również jednego uczestnika z zaawansowanym wykształceniem muzycznym (doktor sztuki w dziedzinie kompozycji), który uzyskał wynik 10/12 poprawnych odpowiedzi. Wynik ten może sugerować, że wykształcenie i doświadczenie muzyczne na pewnym poziomie istotnie zwiększają zdolność odróżniania utworów AI od kompozycji tworzonych przez człowieka.
Ocena emocjonalności i autentyczności
Jednym z kluczowych wymiarów odbioru muzyki jest jej zdolność do wywoływania emocji oraz wrażenia autentyczności wykonawczej i kompozytorskiej. Wielu ankietowanych uzasadniało swoje wybory, bazując na emocjach ukrytych w utworze i jego „głębi”. W wypowiedziach badanych te aspekty pojawiały się najczęściej: respondenci mówili, że „jest bardziej emocjonalny”, a jednocześnie „bardziej autentyczny, brzmi prawdziwiej”, ale też, że „brakuje duszy” lub że głos „brzmi robotycznie”.
Niezależnie od tego, czy utwory były pisane przez człowieka, czy generowane automatycznie, osoby badane trafnie rozpoznawały i przypisywały ich emocjonalność. W krótkich komentarzach ankietowych często pojawiały się sformułowania typu „spokojny”, „smutniejszy”, „energetyczny”, co sugeruje, że podstawowe parametry ekspresji (tempo, tryb, rejestr, dynamika) były dla odbiorców czytelne. Wskazuje to, że systemy generatywne poprawnie modelują wzorce skojarzeń między cechami akustycznymi a etykietami emocjonalnymi.
Równocześnie część osób pisała: „jest poprawnie, ale bez głębi”, „nie czuję prawdziwości”. Tego typu komentarze są zgodne z tezą o „symulowanej ekspresji”: algorytmy potrafią odtworzyć konfiguracje brzmieniowe kojarzone z danym nastrojem, jednak brak im mikroróżnic wykonawczych (mikrotiming, prozodia wokalu) oraz intencjonalnego „gestu” interpretacyjnego, które wzmacniają poruszenie (Boden 2018, s. 51−68). Wskazywano m.in. „robotyczny” charakter wokali, „zbyt równą siatkę” i „pętlowość” formy.
W ankietach pojawiały się stwierdzenia, że wiedza o pochodzeniu utworu („to zrobiła AI”) obniża jego ocenę emocjonalności i autentyczności: „Kiedy wiem, że to maszyna, brzmi chłodniej”, „muzyka traci na wartości”. Sama informacja o autorstwie bywa czynnikiem zaniżającym oceny ekspresji i jakości, niezależnie od treści dźwiękowej.
Część badanych oceniałaby muzykę generatywną pozytywnie w rolach użytkowych (relaks, koncentracja, tło), gdzie „neutralność” i przewidywalność nie przeszkadzają, a nawet pomagają („do nauki – nie rozprasza”). Jednocześnie w odsłuchu nastawionym na przeżycie estetyczne oczekiwano indywidualnej narracji i „gestu” wykonawczego, a tu częściej pojawiały się zastrzeżenia. Ten rozdźwięk opisuje też literatura poświęcona muzyce funkcjonalnej i systemom adaptacyjnym (Pańczyszyn 2024, https).
Ten element badań można podsumować, stwierdzając, że respondenci rozpoznają emocje w muzyce AI, ale częściej niż w przypadku kompozycji człowieka wskazują na mniejszą „głębię” i mniejszą „prawdziwość” przeżycia; świadomość algorytmicznego pochodzenia utworu działa jak filtr obniżający ocenę autentyczności; odbiór poprawia się w zastosowaniach funkcjonalnych, gdzie ceniona jest stabilność i nienachalność ekspresji.
Ocena wartości artystycznej muzyki AI
W celu oceny jakości muzyki generowanej przez sztuczną inteligencję poproszono uczestników badania o odpowiedź na pytanie: Czy użycie AI w muzyce obniża jej wartość artystyczną? Mieli również za zadanie ocenić muzykę stworzoną przez sztuczną inteligencję na skali od 1 do 5, gdzie 1 oznaczało ocenę najniższą, a 5 ocenę najwyższą.
Na pierwsze pytanie twierdząco odpowiedziało 47 respondentów, tj. 82,5%, z czego 84% z wykształceniem muzycznym i 81,5% bez takiego wykształcenia. Można stwierdzić, że dla większości młodych ludzi muzyka tworzona przez AI odznacza się niższymi wartościami artystycznymi niż tworzona przez człowieka.
O ile większość respondentów zgodnie stwierdziła, że AI tworzy muzykę o niższych wartościach artystycznych, to ocena tak tworzonych utworów wypadła dość wysoko. W skali pięciostopniowej zdecydowaną modalną okazała się liczba 4. Taką ocenę muzyce AI wystawiło 54% badanych. Zestawienie procentowe oceny muzyki stworzonej przez AI przedstawia wykres 2.
Wykres 2. Oceny wystawiane muzyce tworzonej przez AI w skali od 1 − ocena najniższa do 5 – ocena najwyższa, w ujęciu procentowym (N = 57)
Źródło: opracowanie własne.
O muzyce tworzonej przez AI respondenci pisali:
Muzyka tworzona przez AI w całości jest, moim zdaniem, złym pomysłem. Muzyka ta traci na swojej wartości artystycznej i emocjonalnej.
Momentami trudno odróżnić muzykę AI od muzyki tworzonej przez człowieka. To jest straszne. Mam nadzieję, że AI nie przejmie całości rynku muzycznego. Może pomóc, może być nowym nurtem, ale nie może przesłaniać, dominować muzyki stworzonej przez prawdziwe osoby.
Muzyka nie powinna tracić swojej głębi i emocji, które czuł twórca. Stworzona przez AI jest tylko powtórzonym schematem wcześniejszych dzieł.
Muzyka stworzona przez AI naprawdę może być dobra, ale to żywi artyści powinni być bardziej docenieni. Dla mnie korzystanie z AI to jak pójście na łatwiznę.
Czasem buja, ale teraz mi trochę głupio, gdzie oceniłam AI lepiej niż człowieka.
Jest miła, sympatyczna, więc mogłabym słuchać do nauki.
Może być do YouTube czy do tła, ale nie na koncert.
Nie odbierajmy pracy i pasji artystom!
To jak odbieranie pracy artystom, łatwizna, kopiowanie schematów.
Preferencje estetyczne badanych
W badaniu uczestnicy nie tylko próbowali rozpoznać autorstwo utworów, ale także wskazywali, które z nich bardziej im się podobały. W ten sposób możliwe było uchwycenie preferencji estetycznych i kryteriów wartościowania.
W całej próbie dało się zauważyć zróżnicowanie − część respondentów preferowała tylko te utwory, które uważała za prawdziwe. Inni mniej konsekwentnie byli skłonni wierzyć, że jeden z utworów jest stworzony przez człowieka, ale zaznaczali drugą opcję. To potwierdza, że odbiór nie był zero-jedynkowy i zależał od kontekstu muzycznego, a także od przekonań ankietowanego (gatunku, instrumentacji, wokalu).
Z analizy komentarzy wynika, że respondenci posługiwali się powtarzającymi się kategoriami oceny: 1. Melodia i rytm: „bardziej melodyjny”, „rytm wpada w ucho”, „ma vibe, buja”. 2. Brzmienie i aranżacja: „gitara brzmi naturalniej”, „ładne brzmienia, różnorodność basów”, „za dużo chaosu, za dużo dźwięków naraz”. 3. Wokal i emocjonalność: „delikatność głosu”, „brzmi jak robotyczny wokal”, „słychać emocje”. 4. Autentyczność i oryginalność: „brzmi znajomo, ale prawdziwie”, „jakby kopia Cavetowna”, „zbyt przewidywalne”. Część osób zwracała uwagę na dopasowanie do osobistego gustu: „po prostu bardziej w moim stylu”, „to przypomina moją ulubioną piosenkę”.
Studenci z wykształceniem muzycznym częściej używali kryteriów technicznych (progresja, harmonia, aranżacja). Osoby bez wykształcenia muzycznego akcentowały emocje i ogólny klimat („spokój”, „tajemniczość”, „buja”) oraz na „brzmienie i energię utworu”. To sugeruje, że kompetencje muzyczne kształtują język oceny − osoby obyte z muzyką skupiają się na poprawności i konstrukcji, a nieprofesjonaliści na odbiorze emocjonalnym i użytkowym.
Na podstawie wypowiedzi można stwierdzić, że osobom bez wykształcenia muzycznego najmniej przeszkadza, że muzyka jest tworzona przez AI, są najbardziej „tolerancyjne” i otwarte na muzykę tworzoną przez AI, muzykom bardziej to przeszkadza i gorzej oceniają tę muzykę.
Preferencje estetyczne były silnie zróżnicowane i raczej nie wiązały się z umiejętnością rozpoznawania autorstwa. Utwory AI oceniano pozytywnie, gdy trafiały w prostsze, bardziej schematyczne gusta („wpada w ucho”), natomiast częściej krytykowano je w sferze wokalu i autentyczności emocjonalnej.
Postawy wobec muzyki AI
Jednym z celów badania było sprawdzenie, czy respondenci są otwarci na włączanie muzyki tworzonej przez sztuczną inteligencję do swojej codziennej praktyki słuchania. Pytano zarówno o deklarowaną otwartość na słuchanie w przyszłości, jak i o ogólną ocenę potencjału AI.
W całej próbie (N = 57) na pytanie, czy są otwarci na słuchanie muzyki stworzonej przez AI, najwięcej osób odpowiedziało „nie” (42%), co pokazuje, że postawy wobec takich kompozycji są w dużej mierze sceptyczne. Otwartość na słuchanie zadeklarowało 30% badanych, a 28% wybrało opcję „nie mam zdania”, co wskazuje na pewien poziom niepewności i wahania wśród respondentów. Odpowiedzi na to pytanie przedstawia wykres 3.
Wykres 3. Otwartość na słuchanie muzyki tworzonej przez AI (N = 57)
Źródło: opracowanie własne.
Porównując otwartość na muzykę AI w dwóch badanych grupach, można stwierdzić, że wśród osób bez wykształcenia muzycznego jest ona większa niż w grupie muzyków, którzy częściej odnoszą się do takich utworów z dystansem. Chcieliby oni, aby muzyka AI wspierała proces twórczy, ale nie zastępowała człowieka w sferze sztuki rozumianej jako ekspresja i przeżycie.
Podsumowanie i wnioski końcowe
Przeprowadzone badania ukazały złożony i ambiwalentny stosunek młodych odbiorców muzyki do twórczości generowanej przez sztuczną inteligencję. Wyniki ilościowe wskazują, że uczestnicy mieli trudności z poprawnym rozpoznaniem autorstwa – średni poziom poprawnych odpowiedzi oscylował wokół 50–57%, co nieznacznie przewyższa przypadkowy wybór. Różnice między grupami (osoby z wykształceniem muzycznym i osoby bez przygotowania muzycznego) były widoczne, lecz niewielkie.
Znacznie bogatsze i bardziej zróżnicowane okazały się oceny jakościowe. Respondenci zwracali uwagę na poprawność techniczną utworów, ale też na brak „duszy” i autentycznego wyrazu emocjonalnego. W komentarzach powtarzały się sformułowania: „Brzmi poprawnie, ale jakby pusto” czy „ciekawie skomponowane, ale bez prawdziwego uczucia”. Jednocześnie część badanych podkreślała zalety muzyki AI, wskazując na jej świeżość, nietypowe brzmienia czy innowacyjny charakter: „Podoba mi się, że nie brzmi jak typowy pop – coś nowego”.
W świetle analiz i badań można stwierdzić, że sztuczna inteligencja zarówno zastępuje człowieka w procesie twórczym, jaki pełni rolę narzędzia wspierającego:
- Generuje pomysły i tworzy szkice – AI pozwala na szybkie tworzenie wariantów harmonicznych i melodycznych, które mogą inspirować dalszą pracę kompozytora.
- Tworzy muzykę użytkową – algorytmy dobrze sprawdzają się w kontekście filmowym, reklamowym, edukacyjnym czy relaksacyjnym, gdzie liczy się szybkość i spójność, a nie unikalny gest twórczy.
- Jest narzędziem edukacyjnym i badawczym – systemy AI mogą być wykorzystywane jako narzędzia dydaktyczne w nauczaniu kompozycji i analizy muzycznej.
Badani trafnie zauważali, że AI można porównać do wcześniejszych wynalazków technologicznych, które budziły kontrowersje – jak syntezatory czy automaty perkusyjne. Jeden z respondentów podsumował: „Na początku ludzie bali się elektroniki, a dziś to standard. Może z AI będzie podobnie”.
Analiza zgromadzonych danych wpisuje się w szerszą dyskusję nad statusem sztucznej inteligencji w sztuce. W literaturze pojawia się pojęcie „kooperacyjnej kreatywności” – sytuacji, w której człowiek i maszyna współdziałają, tworząc dzieło artystyczne. Zaprezentowane badania potwierdzają, że odbiorcy nie traktują AI jako pełnoprawnego twórcy, lecz raczej jako partnera lub instrument w procesie twórczym.
Warto odwołać się do klasyfikacji Margaret Boden (2018, s. 51−68), która wyróżnia trzy poziomy kreatywności: kombinacyjną, eksploracyjną i transformacyjną. Modele AI dobrze sprawdzają się w dwóch pierwszych (łączenie istniejących elementów i eksploracja wariantów), natomiast trudniej im osiągnąć trzeci poziom – wymagający głębokiego kontekstu kulturowego i zdolności do transformacji reguł twórczości.
Ponadto badania potwierdziły istnienie uprzedzeń poznawczych w percepcji sztuki generowanej komputerowo: ta sama kompozycja oceniana była gorzej, jeśli odbiorcy wiedzieli, że jej autorem jest AI. Warto zauważyć, że uzyskane wyniki pozostają w zgodzie z koncepcją AI composer bias, opisaną w badaniach Daniela B. Shanka i współautorów (2023). Autorzy ci wykazali, że odbiorcy gorzej oceniają muzykę, jeśli wiedzą, że została skomponowana przez sztuczną inteligencję. Podobny efekt ujawnił się w niniejszym badaniu – różnica między oceną jakości muzyki a deklarowaną otwartością na jej słuchanie w przyszłości wskazuje, że sama świadomość autorstwa wpływa negatywnie na percepcję emocjonalną i wartość artystyczną utworów. Zjawisko to wymaga dalszej analizy i stanowi punkt wyjścia do przyszłych badań.
Omówione badania miały charakter pilotażowy i zostały przeprowadzone na stosunkowo niewielkiej próbie (57 osób). Z tego względu nie można ich uogólniać na całą populację. Ograniczeniem była także metoda – respondenci oceniali krótkie fragmenty (45–60 sekund), co nie oddaje pełni doświadczenia muzycznego. W przyszłości warto rozszerzyć badania o:
- większą i bardziej zróżnicowaną próbę, zarówno wiekowo, jak i kulturowo,
- pogłębione wywiady jakościowe, które pozwoliłyby lepiej uchwycić subiektywne przeżycia słuchaczy,
- analizę gatunków, np. porównanie percepcji muzyki AI w jazzie, muzyce filmowej, klasycznej i popularnej,
- analizy ilościowe, wykorzystanie metod statystycznych do uchwycenia istotnych różnic między grupami.
Podsumowując, sztuczna inteligencja w muzyce jest zjawiskiem ambiwalentnym: wzbudza zainteresowanie, inspiruje, ale i wywołuje obawy. Respondenci widzą w niej potencjał, np. jako narzędzia wspierającego, które może przyspieszyć i ułatwić proces twórczy, jednak nie zastąpi człowieka w roli twórcy nadającego dziełu autentyczność i emocjonalną głębię.
Jak zauważył jeden z badanych: „Może posłużyć jako instrument, ale zawsze ktoś musi zagrać na nim świadomie”. Granica między twórczością ludzką a algorytmiczną zaciera się – co pokazują trudności w rozpoznawaniu autorstwa – ale dla odbiorców kluczowe pozostaje kryterium autentyczności. Przyszłość muzyki najprawdopodobniej nie będzie polegać na rywalizacji człowieka z maszyną, lecz na ich współistnieniu i wzajemnym dopełnianiu.
Bibliografia
Boden M., 2018, Artificial Intelligence: A Very Short Introduction, Oxford University Press, Oxford.
Pańczyszyn O., 2024, Sztuczna inteligencja – muzyka przyszłości, 30.5.2024, AI Driven, https://aidriven.pl/ai/sztuczna-inteligencja-muzyka-przyszlosci/
Shank D.B., Stefanik C., Stuhlsatz C., Kacirek K., Belf A.M., 2023, AI Composer Bias. Listeners Like Music Less When They Think It Was Composed by an AI, „Frontiers in Psychology”, nr 14, s. 1–14.
Jest to drugi tekst autora w naszym czasopiśmie poruszający problemy sztucznej inteligencji w muzyce. Pierwszy, Sztuczna inteligencja w sztukach muzycznych, ukazał się w poprzednim wydaniu ̶ „Wychowanie Muzyczne” 2025, nr 4, s. 17 ̶ 22.





