Technologia potrzebuje odpowiedzialności. Aleksandra Chmielewska o mediach, danych i przyszłości społeczeństwa informacyjnego

Technologia coraz silniej przenika wszystkie obszary naszego życia od mediów i komunikacji po decyzje polityczne i społeczne. Wraz z jej rozwojem rośnie jednak nie tylko potencjał innowacji, lecz także odpowiedzialność za sposób, w jaki dane, algorytmy i narzędzia wpływają na ludzi, relacje społeczne i dostęp do informacji. W świecie dynamicznych zmian coraz wyraźniej widać, że sama technologia nie wystarczy. Kluczowe staje się pytanie o sens, etykę i długofalowe konsekwencje jej wykorzystania.

Aleksandra Chmielewska

Aleksandra Chmielewska, doktorka nauk społecznych badaczka technologii i menedżerka od lat pracuje na styku mediów danych i polityk publicznych. Łączy perspektywę akademicką z praktyką rynkową realizując projekty transformacji cyfrowej w dużych organizacjach medialnych oraz rozwijając innowacyjne rozwiązania oparte na danych. Jest autorką nagradzanych publikacji o przyszłości mediów wykładowczynią akademicką oraz twórczynią audycji i podcastów popularyzujących wiedzę o relacji człowieka z technologią. W rozmowie opowiada o tym, jak budować media i systemy technologiczne w sposób odpowiedzialny jaką rolę odgrywają dane w społeczeństwie informacyjnym oraz dlaczego przyszłość technologii zależy nie tylko od innowacji lecz także od wartości.

Agnieszka Marzęda: Często mówisz o technologii z duszą i wiedzy z misją. Co to w praktyce oznacza w świecie danych, algorytmów i automatyzacji mediów?

Aleksandra Chmielewska: Bardzo mi miło, że zajrzałaś do mojego opisu na LinkedIn i że wyłapałaś tę sentencję. To nie jest przypadkowe hasło naprawdę mi na nim zależy, bo dobrze streszcza to, jak myślę o technologiach. „Technologia z duszą” to dla mnie podejście human-centric: projektowanie rozwiązań tak, żeby wzmacniały człowieka, jego autonomię, bezpieczeństwo informacyjne i relacje a nie tylko „optymalizowały metryki”. W praktyce oznacza to m.in. minimalizację zbieranych danych, przejrzyste cele, realną kontrolę użytkownika nad personalizacją oraz odpowiedzialność za skutki uboczne. I to się bardzo łączy z tym, że od wielu lat stoję na dwóch nogach: biznesowej i naukowo-badawczej. Zaczęłam pracować w mediach, gdy miałam 17 lat, a równolegle rozwijałam ścieżkę akademicką. Dlatego często patrzę na technologię, łącząc dwa światy: z jednej strony pragmatykę wdrożeń i realiów rynku, a z drugiej refleksję nad konsekwencjami społecznymi, etyką i długofalowym wpływem na ludzi. „Wiedza z misją” to właśnie to połączenie, żeby technologia wspierała rozwój społeczny, a nie była tylko mechanizmem zarządzania uwagą.

Łączysz perspektywę akademicką, strategiczną i biznesową. Jak zmienia się sposób podejmowania decyzji, gdy patrzy się na technologię jednocześnie z tych trzech punktów widzenia?

Gdy patrzy się na technologię z trzech perspektyw naraz -akademickiej, strategicznej i biznesowej decyzje stają się mniej „szybkie i efektowne”, a bardziej świadome, odporne na błędy i długofalowo bezpieczne. Akademia daje mi rygor: weryfikowanie założeń, rozumienie mechanizmów i umiejętność odróżniania korelacji od przyczynowości. Strategia wnosi perspektywę długiego trwania konsekwencji dla rynku, odbiorców, regulacji i zaufania społecznego. Biznes natomiast uczy pragmatyki: co realnie zadziała, kto to utrzyma, jaki jest koszt błędu i jak mierzymy wartość.

To podejście wynika też z mojego doświadczenia zawodowego. W Gemius SA odpowiadałam za projekty strategiczne i rozwój rozwiązań opartych na danych -tam bardzo mocno widać, że decyzje technologiczne są jednocześnie decyzjami o standardach rynku, metodologii i zaufaniu. W TVP SA współtworzyłam i wdrażałam kierunki strategii technologicznej w obszarach cyfrowych, gdzie kluczowe było połączenie skali organizacji, bezpieczeństwa, potrzeb odbiorców i tempa zmian. Z kolei przy TVP Polonia pracowałam nad strategią marki, co przypomina, że technologia nie istnieje w próżni: musi wspierać tożsamość, misję i relację z odbiorcą. Ten miks pomaga mi unikać decyzji opartych wyłącznie na „modzie technologicznej” i przenosi rozmowę na poziom sensu, ryzyk, odpowiedzialności i realnego wpływu na ludzi.

W swojej pracy badawczej zajmujesz się personalizacją mediów, danymi RPD i asymetrią informacji. Gdzie dziś przebiega granica między użyteczną personalizacją a utratą autonomii odbiorcy?

Personalizacja może być realnie pomocna: porządkuje nadmiar treści, ułatwia odkrywanie, poprawia dostępność. Problem zaczyna się wtedy, gdy staje się niewidzialnym systemem sterowania uwagą, gdy użytkownik nie wie, dlaczego coś widzi, i nie ma możliwości tego zmienić. Dla mnie kluczowe są trzy warunki: przejrzystość (wiem, skąd rekomendacja), kontrola (mogę ją wyłączyć lub ustawić) oraz różnorodność (system nie zamyka mnie w bańce). Autonomia odbiorcy spada, gdy personalizacja jest projektowana pod maksymalizację czasu ekranowego, a nie pod jakość informacji, dobrostan i pluralizm. Jednocześnie rozwój technologii jest naprawdę fascynujący, bo otwiera możliwości, które jeszcze niedawno były poza zasięgiem. Przykładem jest telewizja: kiedyś pomiar i zrozumienie widowni były mocno ograniczone, a dziś dzięki cyfryzacji emisji, rozwojowi urządzeń typu set-top box i danym zwrotnym z ekosystemu odbioru zaczynamy mieć w TV możliwości analityczne i personalizacyjne coraz bardziej zbliżone do tych znanych z internetu. To ogromna szansa na lepsze dopasowanie treści i reklam, ale też moment, w którym trzeba szczególnie pilnować granic: prywatności, świadomej zgody, przejrzystości mechanizmów i tego, żeby użytkownik nadal był podmiotem, a nie tylko „zasobem danych”.

Przez lata pracowałaś przy transformacjach cyfrowych dużych organizacji medialnych. Jakie błędy najczęściej popełnia się w procesach cyfrowej zmiany i dlaczego nie są to błędy technologiczne?

Najczęstszy błąd to traktowanie transformacji jak wdrożenia systemu, a nie zmiany sposobu działania organizacji. Ludzie słyszą „nowe narzędzie”, ale nie dostają odpowiedzi: po co, co się zmienia w procesie, jak mierzymy sukces i kto jest właścicielem decyzji. Drugi błąd to brak spójnego zarządzania danymi: jeśli dane są niespójne, silosy rosną, a nikt nie odpowiada za jakość, to nawet najlepsza technologia nie dowiezie wartości. Trzeci – ignorowanie użytkowników: odbiorców na zewnątrz i pracowników wewnątrz. Dodałabym do tego jeszcze jeden, bardzo częsty element: brak edukacji i komunikacji wokół zmiany. Organizacje wdrażają nowe rozwiązania, ale nie tłumaczą wystarczająco ani pracownikom, ani rynkowi w tym widzom co to realnie oznacza, jakie są korzyści, jakie zasady stoją za wykorzystaniem danych, gdzie są granice i jak użytkownik może zachować kontrolę. Bez takiej edukacji rośnie dystans i nieufność: ludzie czują, że „coś się dzieje”, ale nie rozumieją dlaczego, a to potrafi zablokować adopcję nawet najlepszych narzędzi. Transformacja działa wtedy, gdy jest połączona z misją, kompetencjami, odpowiedzialnością za dane oraz realnym przywództwem zmiany a nie tylko z zakupem kolejnej platformy.

Coraz częściej mówimy o AI w mediach i reklamie. Jak Twoim zdaniem powinno wyglądać odpowiedzialne wykorzystanie sztucznej inteligencji w sektorze medialnym?

Odpowiedzialna AI to przede wszystkim jasne zasady, do czego jej używamy, a do czego nie. W mediach kluczowe są transparentność (oznaczanie treści generowanych lub wspieranych przez AI), nadzór człowieka (decyzje redakcyjne i odpowiedzialność pozostają po stronie ludzi) oraz audyt ryzyk (bias, halucynacje, manipulacje, deepfake). W reklamie dochodzą kwestie prywatności i zgody, ponieważ AI nie może być pretekstem do agresywniejszej inwigilacji odbiorcy. W praktyce potrzebujemy ram w polotyce publicznej: polityk danych, procedur weryfikacji, standardów jakości i mechanizmów rozliczalności. AI to narzędzie a narzędzie bez wartości i zasad staje się po prostu wzmacniaczem błędów systemu. Ten sposób myślenia mocno wybrzmiewa też w moich pracach nad scenariuszami przyszłości telewizji. W monografii „Nowe supermedium. Współczesne oblicza telewizji i scenariusze przyszłości”, którą współredagowałam, pokazujemy, jak telewizja „wychodzi poza telewizję” w stronę OTT/VOD i modeli takich jak FAST, a jednocześnie jak rośnie rola algorytmów w porządkowaniu wyborów odbiorcy. To ważne, bo w takim świecie pytanie „czy widz ma jeszcze wybór” staje się pytaniem o autonomię w warunkach algorytmizacji.  I właśnie dlatego w rozdziale o planowaniu scenariuszowym przyszłości rynku podkreślam, że rozwój technologii musi iść w parze z zasadami i odpowiedzialnością, bo inaczej AI będzie optymalizować cele krótkoterminowe kosztem zaufania i jakości informacji.  Równolegle badawczo przyglądaliśmy się też AI w radiu i telewizji w zespole praktyków i badaczy (m.in. z prof. Stanisławem Jędrzejewskim i dr Krzysztofem Kuźmiczem), bo dopiero na konkretnych przykładach widać, jak cienka bywa granica między „usprawnieniem” a ryzykiem dla wiarygodności przekazu.

Masz doświadczenie zarówno w mediach publicznych, jak i komercyjnych. Jak te dwa światy różnią się w podejściu do danych, odbiorców i odpowiedzialności społecznej?

Media publiczne z definicji mają silniejszy mandat społeczny: misję informacyjną, edukacyjną i kulturotwórczą, więc odpowiedzialność za standardy jest szczególnie wysoka. Jednocześnie bywają bardziej obciążone procedurami i wolniejszym tempem zmian. Media komercyjne są zwykle szybsze, bardziej zwinne i mocniej oparte na metrykach, ale ryzyko polega na tym, że presja monetyzacji może spychać na drugi plan dobrostan odbiorcy czy pluralizm. W obu modelach dane są potężną walutą, dlatego etyka, prywatność i przejrzystość nie mogą być dodatkiem „na końcu”. Dziś różnica nie powinna polegać na tym, kto zbiera więcej danych, tylko kto potrafi mądrzej i uczciwiej je wykorzystać.

Współtworzyłaś innowacyjne projekty także poza rynkiem mediów, między innymi w obszarze transportu i logistyki. Co Twoim zdaniem decyduje o tym, że innowacja rzeczywiście działa w praktyce?

Najlepsza innowacja nie wygrywa „najnowocześniejszą technologią”, tylko dopasowaniem do realiów: procesów, ludzi, kosztów i ograniczeń. Kluczowe jest jasne zdefiniowanie problemu i wartości: co dokładnie poprawiamy i jak to mierzymy. Drugi element to adopcja – jeśli użytkownicy nie rozumieją rozwiązania albo ono komplikuje im pracę, projekt umrze niezależnie od jakości kodu. Trzeci to skalowalność i utrzymanie: kto odpowiada za dane, bezpieczeństwo, serwis i ciągłość działania. I wreszcie to odpowiedzialność: innowacja musi być zgodna z wartościami organizacji i nie może przerzucać kosztów „po drodze” na ludzi czy środowisko.

Miałam to szczęście widzieć to w praktyce w różnych rolach. Jako prezes firmy realizującej projekt B+R finansowany ze środków NCBR, odpowiadałam za projekt kosza kłonicowego do przewozu drewna, projekt zakończył się sukcesem, a rozwiązanie zostało objęte patentem. To była bardzo konkretna lekcja, że innowacja działa wtedy, kiedy jest policzalna, użyteczna i wdrażalna w realnych warunkach operacyjnych, a nie tylko „robi wrażenie” na prezentacji.

Równolegle brałam udział także w innych przedsięwzięciach czasem jako wsparcie po stronie firmy podwykonawczej, czasem jako członkini zespołu projektowego. I niezależnie od roli mechanizm jest podobny: skuteczne innowacje rodzą się na styku wiedzy, praktyki i odpowiedzialności. Gdy jest jasny problem, sensowny model wdrożenia i gotowość organizacji do zmiany, technologia staje się dźwignią. Gdy tego brakuje nawet najlepsze rozwiązanie zostaje ciekawostką.

Jesteś aktywna w obszarze polityk publicznych i dialogu z interesariuszami. Jaką rolę powinny dziś odgrywać media i dane w kształtowaniu społeczeństwa informacyjnego?

Media i dane dziś nie są już tylko „narzędziami”, są środowiskiem, w którym funkcjonujemy jako społeczeństwo. Dlatego rola mediów to nie tylko informowanie, ale też budowanie kompetencji odbiorców: rozumienia źródeł, mechanizmów rekomendacji, manipulacji i dezinformacji. Dane powinny być traktowane jak zasób wymagający ochrony i kontroli, a nie jak łup.

W politykach publicznych kluczowe jest tworzenie ram: transparentności algorytmów, ochrony prywatności, standardów dla AI i mechanizmów odpowiedzialności. Jeśli tego nie zrobimy, społeczeństwo informacyjne stanie się społeczeństwem nierównowagi informacyjnej, gdzie nieliczni wiedzą i przewidują więcej, a większość jest jedynie „zarządzana”.

I powiem to tak po ludzku…;) oczywiście chciałabym mieć większy wpływ na to, jak te ramy powstają i jak realnie się je wdraża. Ale jednocześnie naprawdę doceniam każdy moment, kiedy mogę zabrać głos, zostać wysłuchana i wnieść perspektywę, która łączy technologię, media i odpowiedzialność. Czasem już samo to, że rozmowa przesuwa się z „czy to się da zrobić” na „czy powinniśmy i jak to zrobić dobrze”, jest małym, ale ważnym krokiem.

Patrząc na przyszłość rynku medialnego, jakie kompetencje będą kluczowe dla liderek i liderów, którzy chcą łączyć technologię z odpowiedzialnością?

Na pewno rośnie znaczenie data i AI literacy ale nie jako znajomość narzędzi, tylko rozumienie konsekwencji, ograniczeń i kosztów ubocznych. Kluczowe będzie myślenie systemowe: widzenie zależności między technologią, regulacjami, rynkiem, kulturą organizacyjną i zaufaniem społecznym. Do tego governance, czyli umiejętność budowania zasad, procesów, odpowiedzialności i audytu.

Ale obok tych „twardych” kompetencji coraz ważniejsza będzie też humanizacja technologii. Liderki i liderzy przyszłości muszą umieć wprowadzać do rozmowy o danych i AI perspektywę człowieka: empatię, wrażliwość na różne potrzeby odbiorców, otwartość na dialog i gotowość do uczenia się od innych. To jest też kwestia wzajemnej edukacji, technologia nie może być monologiem ekspertów do reszty świata. Potrzebujemy języka, który łączy, a nie wyklucza: tłumaczenia technologii w sposób uczciwy i zrozumiały, bez marketingowej mgły, i jednocześnie słuchania ludzi, których te rozwiązania dotyczą.

I wreszcie odwaga wartości: umiejętność powiedzenia „nie” rozwiązaniom, które są opłacalne w krótkim terminie, ale szkodliwe społecznie. Bo odpowiedzialna technologia wymaga nie tylko kompetencji, ale też charakteru i dojrzałości w podejmowaniu decyzji.

Prowadzisz wiele ról jednocześnie badaczki menedżerki wykładowczyni twórczyni audycji. Co pozwala Ci zachować spójność w tak różnorodnych działaniach?

Z boku ktoś mógłby pomyśleć, że powinnam się w końcu na coś zdecydować — wybrać jedną ścieżkę i konsekwentnie się jej trzymać. A ja mam dokładnie odwrotnie: dla mnie ta różnorodność nie jest rozproszeniem, tylko układanką, w której elementy wzajemnie się wzmacniają. Widzę w tej synergii ogromną wartość, bo mogę łączyć światy, które na co dzień rzadko ze sobą rozmawiają: akademię, biznes, media i odbiorców.

Na co dzień jestem adiunktem w Akademii Mazowieckiej w Płocku. Wykładam też na Wydziale Dziennikarstwa, Informacji i Bibliologii Uniwersytetu Warszawskiego oraz w Akademii Leona Koźmińskiego, gdzie dodatkowo jestem związana z Centrum Badań Mediów i Społeczeństwa. Równolegle prowadzę projekty na rynku medialnym i edukacyjnym, także w obszarze IT, czyli jestem blisko tego, jak technologia działa „w praktyce” i jak realnie zmienia organizacje.

Właśnie dlatego ponad rok temu uruchomiłam podcast „Arena Praktyk”. Wcześniej, razem ze studentami, tworzyliśmy kącik technologiczny „Technologia nie gryzie”, a potem powstało ok. 150 moich edukacyjnych wstawek na antenie Polskiego Radia RDC. To wszystko naturalnie doprowadziło do autorskiego programu „Człowiek. Nauka. Technologia” miejsca, w którym mogę testować idee „na żywo”, łączyć środowiska i mieć realną przestrzeń do promocji nauki oraz edukacji medialnej.

Jestem bardzo szczęśliwa i wdzięczna Pani Prezes Emilii Benedykcińskiej oraz Aleksandrze Głogowskiej za zaufanie i szansę.

A jeśli chodzi o moje role, to ja ich nie traktuję jak oddzielnych szufladek. Jestem jednocześnie badaczką i praktyczką rynku, wykładowczynią i osobą „z eteru” i wszystkie te perspektywy krążą wokół jednego tematu: relacji człowieka z technologią i odpowiedzialności za dane. Spójność trzymam dzięki prostemu kompasowi: sens, uczciwość poznawcza, myślenie o długofalowych skutkach i szacunek do odbiorcy. I jeszcze jedna rzecz: selekcja. Nie robię wszystkiego, wybieram projekty, które składają się w jedną logiczną całośc. Dzięki temu ta różnorodność nie rozprasza, tylko daje szersze, bardziej odpowiedzialne spojrzenie.

Co w Twojej drodze zawodowej było momentem, w którym poczułaś, że technologia może realnie wzmacniać ludzi a nie tylko systemy?

Momentów było kilka, ale bardzo mocno pamiętam ten z czasów TVP, kiedy zobaczyłam, że technologia potrafi realnie „otworzyć drzwi” do treści i dać ludziom nowe poczucie uczestnictwa. Pracowałam przy projektach, w których robiliśmy jedne z pierwszych Teatrów Telewizji w internecie -to było przełamywanie bariery „kiedy i gdzie” można obcować z kulturą. Równolegle realizowaliśmy Wielkie Testy, m.in. wiedzy ekonomicznej, gdzie budowaliśmy dostęp w modelu second screen: widz oglądał program w telewizji, a jednocześnie na telefonie czy komputerze mógł aktywnie uczestniczyć, odpowiadać, porównywać wyniki i uczyć się w czasie rzeczywistym. Dziś brzmi to naturalnie, ale wtedy to była prawdziwa innowacja i świetny przykład, że technologia może wzmacniać ludzi, a nie tylko „system”.

Do tego byłam też w zespole, który pracował przy cyfryzacji telewizji w tym przy uruchamianiu i rozwoju MUX-3 oraz MUX-1. To był naprawdę przełomowy etap: zmiana infrastruktury i sposobu dystrybucji, która w praktyce otworzyła drogę do nowej jakości odbioru, większej dostępności i dalszych usług cyfrowych. Z perspektywy czasu widać, że to nie była „tylko” technologia, to była zmiana całego ekosystemu i tego, jak widzowie wchodzą w kontakt z mediami.

Dlatego mówię, że technologia nabiera sensu wtedy, gdy poprawia dostęp do jakościowych treści i daje odbiorcom poczucie kontroli oraz sprawczości. Kiedy dzięki lepszemu rozumieniu danych możemy projektować doświadczenia medialne bardziej inkluzywnie dla różnych grup, potrzeb i stylów odbioru. Równie ważne jest to, gdy technologia wspiera transparentność: pokazuje, skąd treść pochodzi, dlaczego ją widzę i jak mogę to zmienić. Wtedy widać, że innowacja nie musi być „sprytniejszym mechanizmem wpływu”, tylko może być narzędziem edukacji, dostępności i budowania kompetencji.

I podobne poczucie mam przy projektach badawczych, które dotykają realnych problemów społecznych. Na przykład w badaniach, które prowadziłam wspólnie z dr Marleną Kondrat na temat hejtu wśród seniorów, kiedy widzisz, że wyniki mogą zmienić czyjeś rozumienie świata, pomóc nazwać zjawisko, a potem zaprojektować lepsze działania edukacyjne czy wsparcie, to czujesz, że technologia i wiedza naprawdę mogą wzmacniać ludzi, a nie tylko optymalizować procesy.

Gdybyś miała dziś przekazać jedną myśl młodym kobietom wchodzącym w świat technologii i mediów, co uznałabyś za najważniejsze?

Powiedziałabym: nie próbuj dopasować się do technologii, dopasuj technologię do swoich wartości. Kompetencje techniczne są ważne, ale Twoja wrażliwość, ciekawość i sposób patrzenia na ludzi są dziś równie cenne, bo media i technologie realnie kształtują społeczeństwo.

Ucz się konsekwentnie, buduj swoją „bazę” (dane, AI, bezpieczeństwo, podstawy produktu), ale równocześnie ćwicz odwagę: zadawaj pytania, proś o wsparcie, negocjuj warunki i mów „nie” projektom, które są sprzeczne z Twoim kompasem. Szukaj środowisk, w których jest miejsce na rozwój i wzajemną edukację mentorek, mentorów i ludzi, którzy Cię wzmocnią, a nie uciszą.

Dodałabym jeszcze jedną, bardzo prostą rzecz: słuchaj starszych i korzystaj z doświadczenia ludzi, którzy byli w tej branży przed Tobą. Ja jestem naprawdę wdzięczna osobom, które spotkałam na początku swojej drogi w mediach – Marii Żabickiej, Jerzemu Czerskiemu, Cezaremu Pawłowskiemu i wielu innym, którzy chcieli przekazywać wiedzę, uczyć mnie i inspirować.

To jest ogromna wartość, bo technologie się zmieniają, ale pewne rzeczy zostają: etyka pracy, odpowiedzialność za słowo, myślenie o odbiorcy, odporność na presję i umiejętność podejmowania dobrych decyzji w trudnych warunkach. Dlatego szukaj mentorek i mentorów, pytaj, obserwuj, ucz się i kiedy przyjdzie moment, podaj to dalej.

 

Rozmowa z Olą pokazuje, że technologia przestaje być wyłącznie narzędziem, a staje się przestrzenią odpowiedzialności. To, w jaki sposób projektujemy systemy, zarządzamy danymi i podejmujemy decyzje, ma dziś bezpośredni wpływ na relacje społeczne, dostęp do informacji i jakość funkcjonowania całych społeczeństw. W świecie, w którym łatwo zachwycić się innowacją, znacznie trudniej zatrzymać się i zapytać o jej sens.

Perspektywa naszej rozmówczyni przypomina, że rozwój technologii nie może odbywać się w oderwaniu od wartości, a prawdziwa zmiana zaczyna się tam, gdzie wiedza spotyka się z odpowiedzialnością. To właśnie na tym styku powstają rozwiązania, które nie tylko działają, ale mają realne znaczenie.

W imieniu Lady Business Club dziękujemy za rozmowę, podzielenie się doświadczeniem oraz za konsekwentne budowanie przestrzeni, w której technologia wspiera człowieka, a nie go zastępuje.

 

Rozmowę przeprowadziła Agnieszka Marzęda

Więcej o Oli Chmielewskiej znajdziesz >>>TUTAJ

Jeśli chcesz, by historia Twojej marki, pasji i drogi znalazła się na łamach LadyBusiness.pl – tak jak ta rozmowa – napisz do nas na adres: pr@ladybusiness.pl. Z przyjemnością poznamy Twoją opowieść.


Udostępnij