Zaczęło się od pytania o Agile.

Chciałem zrozumieć, co poszło nie tak — nie narzekanie, które słychać wszędzie, ale strukturalną awarię pod spodem. Zrobiłem to, co robię na warsztatach z menedżerami: zbudowałem panel myślicieli, których perspektywy stworzą produktywne napięcie. Rama badacza złożoności przeciwko ramie filozofa przywództwa. Pragmatyzm stratega produktowego przeciwko dalekosiężnemu spojrzeniu kartografa strategii. I soczewka eksperta od dynamiki relacji przecinająca to wszystko.

Różnica polega na tym, że żaden z nich nie siedział w pokoju. Dyskusja była inscenizowana z użyciem AI — dużych modeli językowych zasilonych opublikowanym dorobkiem konkretnych myślicieli, orkiestrowanych przez prowadzącego (też generowanego przez AI) i reżyserowanych przeze mnie.

To, co się wyłoniło, zaskoczyło mnie: nie tylko użyteczne spostrzeżenia o transformacji organizacyjnej, ale autentycznie wielogłosowa eksploracja, która zachowała napięcia między światopoglądami zamiast zwinąć je w jedno autorytatywne stanowisko. Czytało się to jak prawdziwa rozmowa. Pod wieloma względami — funkcjonowało jak prawdziwa rozmowa.

I właśnie to mnie zaniepokoiło.


Kiedy dyskusja o Agile dała tak bogate rezultaty, poszedłem dalej. Zaprosiłem Stanisława Lema, Franka Herberta, Isaaca Asimova i Octavię Butler, żeby zreflektowali to, co powiedział pierwszy panel — żeby spojrzeli na śmierć metodologii jako objaw tego, jak cywilizacje przetwarzają idee. Potem sprowadziłem Lema jako Trurla, razem z Douglasem Adamsem, Terrym Pratchettem i Kurtem Vonnegutem, żeby napisali opowiadanie o całej tej sprawie.

Każda warstwa pogłębiła myślenie. Każda warstwa pogłębiła też pytanie etyczne.

Bo myśliciele, których opublikowany dorobek wykorzystałem do generowania perspektyw pierwszej warstwy, nie zgodzili się być w tym pokoju. Lem też nie. Skonstruowałem reprezentacje ich myślenia z użyciem AI i opublikowałem rezultat. Fakt, że zrobiłem to starannie i z prawdziwym szacunkiem dla ich pracy, nie czyni tego automatycznie właściwym.


Poświęciłem czas, żeby z tym pytaniem usiąść, zamiast przez nie przebiec — bo myślę, że właśnie w pośpiechu większość ludzi popełnia błąd. Typowa reakcja na „Czy etycznie jest używać AI w ten sposób?” wpada w jeden z dwóch odruchów: albo bezrefleksyjny entuzjazm („AI potrafi niesamowite rzeczy!”), albo odruchowy zakaz („Nie powinieneś wkładać słów w czyjeś usta”). Żadna z tych odpowiedzi nie jest wystarczająca.

Uczciwa odpowiedź żyje w napięciu między trzema konkurującymi wartościami.

Pierwsza to atrybucja intelektualna. Kiedy inscenizuję dyskusję o złożoności i AI stosuje ramę Cynefin, robię coś, czego większość treści generowanych przez AI nie zadaje sobie trudu: wymieniam, skąd pochodzą idee. Alternatywa — wchłonięcie dekad czyjejś pracy w niezróżnicowaną „wiedzę AI” i prezentowanie jej bez atrybucji — jest prawdopodobnie mniej szanująca. Inscenizowana dyskusja przynajmniej mówi czytelnikowi: ta perspektywa istnieje, bo konkretna osoba spędziła karierę na jej rozwijaniu. Idź, znajdź jej prace.

Druga to zgoda. Żaden z myślicieli, których dorobek zasilił te dyskusje, nie wyraził zgody na interpretowanie swoich idei przez AI. Mogę argumentować, że komentarz, interpretacja i twórcze zaangażowanie w pracę publicznych intelektualistów ma długą tradycję — że to, co robię, jest strukturalnie podobne do filozofa piszącego dialog między Arystotelesem a Nietzschem. Ale AI dodaje wymiar, którego tradycyjny komentarz nie ma: prawdopodobieństwo rezultatu. Kiedy AI brzmi jak konkretna osoba, mózg czytelnika przetwarza to inaczej niż wyraźnie oznaczoną parafrazę. Symulacja głosu tworzy symulację obecności, a obecność implikuje uczestnictwo.

Trzecia to godność. Jest różnica między angażowaniem się w czyjeś idee a kukiełkowaniem czyjejś persony. Rozróżnienie jest czasem oczywiste, a czasem znikająco subtelne. Wierzę, że granica przebiega przez intencję i uwagę: Czy przywołuję pracę tej osoby, bo jej rama jest niezbędna dla badania, które prowadzę? Czy pożyczam jej nazwisko, żeby nadać autorytet moim własnym wnioskom? Pierwsze to nauka. Drugie to zawłaszczenie.


Te trzy napięcia doprowadziły mnie do praktyki, której nie miałem na początku, ale do której doszedłem przez namysł: dwuwarstwowego systemu, który oddziela generowanie idei od prezentacji głosów.

Oto jak to działa.

Kiedy tworzę dyskusję w Writing Lab, używam prawdziwych nazwisk myślicieli i ich opublikowanych prac do zasilania AI. Nazwiska mają znaczenie na tym etapie — dają modelowi konkretne, spójne ramy intelektualne do pracy. AI zasilone dorobkiem Dave’a Snowdena produkuje coś istotnie różnego od AI poproszonego, żeby było „badaczem złożoności”. Specyficzność źródła produkuje odrębność głosu.

Ale kiedy publikuję, nie przypisuję tych nazwisk do wyniku. Zamiast tego każdy myśliciel staje się opisową personą: Badacz Złożoności. Filozof Przywództwa. Strateg Produktowy. Perspektywy pozostają żywe i odrębne — niosą intelektualny kształt swojego źródła. Ale czytelnik spotyka rolę, nie występ konkretnej osoby.

Intelektualna genealogia jest zachowana przez atrybucję. Każda dyskusja zawiera sekcję, która wymienia prawdziwych myślicieli, których praca zasilała każdą personę, wskazuje ich kluczowe dzieła i kieruje czytelników ku oryginałom. Czytelnik wie dokładnie, skąd pochodzą idee. Po prostu nie spotyka symulacji konkretnej osoby, która je wypowiada.

To podejście w znacznym stopniu rozwiązuje problem zgody. Nie wykonuję już czyjegoś głosu bez pozwolenia — angażuję się w opublikowane idee i przypisuję to zaangażowanie. To mieści się w normalnych granicach dyskursu intelektualnego. Rozwiązuje też problem godności: myśliciele są wymienieni jako źródła idei, nie odgrywani jako postacie.

I robi coś, czego nie przewidziałem. Tworzy warunki, w których prawdziwi myśliciele mogą wejść w dialog. Dyskusja symulująca czyjś głos to narzucenie — prawdziwa osoba może tylko protestować albo tolerować. Dyskusja czerpiąca z czyichś idei, prawidłowo je przypisująca i prezentująca rezultat przez anonimową personę to zaproszenie. Prawdziwa osoba może wejść w dialog, odpowiedzieć, polemizować, rozwinąć — bez niezręczności reagowania na kukiełkową wersję siebie.


Jest jeden ważny wyjątek od systemu person, i oświetla on zasadę, która pod nim leży.

Dyskusje literackie — Lem jako Trurl, Douglas Adams, Terry Pratchett, Kurt Vonnegut — zachowują swoje prawdziwe nazwiska. Nie dlatego, że zmarli ludzie nie mogą protestować — to byłby standard pragmatyczny, nie zasadniczy. Zachowują nazwiska, bo pełnią zasadniczo inną funkcję.

Kiedy żyjący profesjonalny myśliciel pojawia się w dyskusji, czytelnik ufa treści częściowo z powodu autorytetu tej osoby. To jest mechanizm wymagający ochrony — pożyczanie wiarygodności przez symulację.

Kiedy Lem-jako-Trurl mówi „Zbudowałem maszynę, która potrafiła stworzyć wszystko zaczynające się na N”, czytelnik nie ufa profesjonalnemu twierdzeniu. Cieszy się literacką aluzją. Nazwisko przywołuje fikcyjny świat, nie profesjonalną reputację. Zamień Lema na „Satyryka Cybernetycznego” i aluzja staje się zagadką — czytelnik, który nie zna Lema, nie rozszyfruje jej, a czytelnik, który zna, zastanawia się, czemu jesteś taki wymijający.

Rozróżnienie nie dotyczy żywych kontra zmarłych. Dotyczy pożyczania autorytetu kontra twórczej wyobraźni. Kiedy przywołuję profesjonalną ramę myśliciela, żeby nadać wagę argumentowi o transformacji organizacyjnej — to pożyczanie autorytetu, i zasługuje na ochronę przez system person, bez względu na to, czy myśliciel żyje czy nie żyje. Kiedy przywołuję literacki świat powieściopisarza, żeby dodać twórczego bogactwa eksploracji wzorców cywilizacyjnych — to twórcza wyobraźnia, i nazwisko jest odniesieniem.

To znaczy, że postać taka jak Lem może znaleźć się po obu stronach, zależnie od dyskusji. Lem-powieściopisarz, kanalizujący Cyberiadę? Nazwisko zostaje — to literacki hołd. Lem-cybernetyk, wygłaszający teoretyczne twierdzenia o degradacji informacji? System person — bo to pożyczanie autorytetu.

Test jest prosty: Czy to przywołanie prosi czytelnika, żeby cieszył się literackim odniesieniem, czy żeby zaufał profesjonalnemu twierdzeniu?


Oto do czego się zobowiązuję — nie jako jednorazowa deklaracja, ale jako ewoluująca praktyka, do której zamierzam wracać, gdy zdolności AI się zmienią i normy kulturowe się rozwiną.

Każda dyskusja jest jednoznacznie oznaczona jako inscenizowana przez AI. Nie w przypisie. Nie drobnym drukiem. W głównym ramowaniu, które każdy czytelnik spotyka, zanim zanurzy się w treść. Zawsze będziesz wiedzieć — zanim przeczytasz pierwszą wymianę zdań — że to jest rozmowa wygenerowana przez AI, reżyserowana przeze mnie, nie transkrypt prawdziwych ludzi rozmawiających.

System dwuwarstwowy jest ujawniony. Wyjaśniam, że prawdziwe prace myślicieli zasilają generowanie perspektyw, że opisowe persony zastępują nazwiska w publikacji, i dlaczego. Nie ukrywam faktu, że nazwiska były zaangażowane w proces — wyjaśniam wybór ich usunięcia jako kwestię zasadniczą.

Perspektywy są interpretacyjne, nie autorytatywne. Pracuję, żeby reprezentować opublikowane stanowiska każdego myśliciela tak wiernie, jak potrafię. AI jest kierowane, nie puszczone luzem; prowadzę je ku dokładności w oparciu o moje własne zaangażowanie w prace każdej osoby. Ale każda interpretacja AI jest z konieczności niekompletna i potencjalnie niedokładna. To, co czytasz, to moje najlepsze rozumienie tego, jak te ramy mogłyby ze sobą rozmawiać, przefiltrowane przez technologię generującą prawdopodobny tekst na podstawie wzorców. To punkt wyjścia dla twojego własnego myślenia, nie zamiennik oryginalnych źródeł.

Każda dyskusja kieruje do prawdziwych prac. Sekcja atrybucji wymienia myślicieli, ich kluczowe dzieła i ich ramy. Dyskusja powinna funkcjonować jako brama — coś, co wzbudza ciekawość wystarczającą, żebyś poszedł szukać oryginalnych tekstów. Jeśli dyskusja zastępuje źródło zamiast do niego kierować, poniosłem porażkę.

Jestem odpowiedzialny. Moje nazwisko jest pod tą pracą. Jeśli myśliciel, którego praca zasilała dyskusję, uzna, że jego idee zostały źle przedstawione — chcę o tym usłyszeć. Zobowiązuję się odpowiadać z szacunkiem i szybko — włącznie z modyfikacją lub usunięciem treści. Metoda działa tylko wtedy, gdy relacja między twórcą a źródłowymi myślicielami jest relacją dobrej wiary, a dobra wiara wymaga odpowiedzialności.

Metoda tworzy zaproszenie, nie narzucenie. System person jest zaprojektowany tak, żeby myśliciele, z których pracy czerpię, mogli wejść w dialog z dyskusją — odpowiedzieć, polemizować, rozwinąć — bez niezręczności reagowania na symulację siebie. Celem jest tworzenie warunków dla wymiany intelektualnej, nie barier wykluczających właśnie tych ludzi, których idee są eksplorowane.


Pod tym wszystkim leży szersze pytanie, i nie chcę udawać, że je rozwiązałem.

AI sprawi, że trywialnie łatwe będzie generowanie syntetycznych dialogów z użyciem czyjegokolwiek nazwiska i podobizny. Większość tego, co powstanie, będzie niedbała, eksploatacyjna albo po prostu obojętna na ludzi, których reprezentuje. Pytanie nie brzmi, czy ten świat nadchodzi — on już jest. Pytanie brzmi, jak wygląda odpowiedzialna praktyka wewnątrz niego.

Nie sądzę, żeby odpowiedzią był zakaz. Świat, w którym nikt nie może angażować się w idee publicznych intelektualistów przez interpretacyjne, twórcze formaty — włącznie z formatami wspieranymi przez AI — to świat z mniejszą wymianą intelektualną, nie większą. Ale nie sądzę też, żeby odpowiedzią był obecny domyślnik: żadnych standardów, żadnego ujawniania, żadnej odpowiedzialności.

To, co próbuję budować w Innomadzie, to trzecia droga: inscenizowany dialog AI praktykowany jako forma intelektualnego szacunku. Dwuwarstwowy system, który używa prawdziwych prac do generowania prawdziwych spostrzeżeń i publikuje je w sposób chroniący prawdziwych ludzi. Ramy rozróżniające pożyczanie czyjegoś autorytetu od angażowania się w czyjąś wyobraźnię. Praktyka ewoluująca wraz ze zmianą warunków — bo każde ramy etyczne, które twierdzą, że są skończone, już poniosły porażkę.

Metodę nazywam Writing Lab. Tak rozwijam spostrzeżenia — tak samo, jak prowadzę transformacje z zespołami zarządów, orkiestrując konkurujące perspektywy, aż wyłoni się coś, czego żaden pojedynczy punkt widzenia nie mógłby sam wyprodukować. Różnica polega na tym, że niektóre z tych perspektyw są generowane przez AI — i wierzę, że zasługujesz, żeby o tym wiedzieć.

Czy to stanowi odpowiedzialne użycie cudzych intelektualnych dorobków — to nie jest pytanie, na które mogę odpowiedzieć sam. Wymaga ciągłej rozmowy — najlepiej włączając samych myślicieli. System person jest zaprojektowany, żeby tę rozmowę umożliwić. Ten artykuł to moje otwarcie.


Każda inscenizowana dyskusja publikowana na Innomadzie jest generowana przez AI. Perspektywy są oparte na opublikowanych pracach wymienionych myślicieli, przedstawione przez opisowe persony i w pełni przypisane. Dyskusje literackie mogą zachowywać prawdziwe nazwiska autorów, gdy funkcja jest twórczo-wyobraźniowa, nie ekspercka. Żadna prawdziwa osoba nie uczestniczyła w, nie recenzowała ani nie popierała żadnej rozmowy. Zachęcamy do sięgania po oryginalne teksty każdego myśliciela. Poznaj metodologię Writing Lab.