Panoptykon 4.0

Podcast Fundacji Panoptykon
Odzyskajmy sprawczość. Rozmowa z Davidem Lyonem [odcinek specjalny]
2019-12-23 19:59:56
Zapraszamy na świąteczno-noworoczne wydanie podcastu Panoptykon 4.0 – rozmowę z prof. Davidem Lyonem, który badania nad nadzorem zaczął na długo przed powstaniem Fundacji Panoptykon, jeszcze w latach 80. Dlaczego nie dostrzegamy codziennego nadzoru, czym różnią się chińskie i zachodnie cyberkorporacje, czy już wkrótce wszyscy będziemy „dataistami”.
Zapraszamy na świąteczno-noworoczne wydanie podcastu Panoptykon 4.0 – rozmowę z prof. Davidem Lyonem, który badania nad nadzorem zaczął na długo przed powstaniem Fundacji Panoptykon, jeszcze w latach 80. Dlaczego nie dostrzegamy codziennego nadzoru, czym różnią się chińskie i zachodnie cyberkorporacje, czy już wkrótce wszyscy będziemy „dataistami”.
O pracy w przyszłości. Rozmowa z dr hab. Renatą Włoch
2019-12-19 16:35:50
Do 2030 roku 47% miejsc pracy zostanie zautomatyzowanych. Czy technologia uwolni nas od najbardziej żmudnych zadań? Kto straci, a kto zyska na automatyzacji? Co to jest „sztuczna” sztuczna inteligencja i kto trenuje algorytmy? Jakie kompetencje się nie przeterminują. O przyszłości pracy rozmawiamy z dr hab. Renatą Włoch z Delabu, interdyscyplinarnego ośrodka badawczego Uniwersytetu Warszawskiego.
Do 2030 roku 47% miejsc pracy zostanie zautomatyzowanych. Czy technologia uwolni nas od najbardziej żmudnych zadań? Kto straci, a kto zyska na automatyzacji? Co to jest „sztuczna” sztuczna inteligencja i kto trenuje algorytmy? Jakie kompetencje się nie przeterminują. O przyszłości pracy rozmawiamy z dr hab. Renatą Włoch z Delabu, interdyscyplinarnego ośrodka badawczego Uniwersytetu Warszawskiego.
Przyszłość jest teraz. Rozmowa z Adrianem Zandbergiem
2019-12-05 18:00:00
Jak wizja rozwoju lidera partii Razem różni się od wizji rozwoju Premiera Mateusza Morawieckiego? Czy wiedza Facebooka i Google’a może służyć społeczeństwu? Kto i za co zapłaci cyfrowy podatek? O wizję Nowego Cyfrowego Ładu zapytaliśmy Adriana Zandberga.
Jak wizja rozwoju lidera partii Razem różni się od wizji rozwoju Premiera Mateusza Morawieckiego? Czy wiedza Facebooka i Google’a może służyć społeczeństwu? Kto i za co zapłaci cyfrowy podatek? O wizję Nowego Cyfrowego Ładu zapytaliśmy Adriana Zandberga.
Ciemna strona uśmiechu. Rozmowa z Cvetą Dimitrovą
2019-11-21 17:00:16
Wchodzisz do banku, a tam na biurku sensor, który mierzy uśmiechy klientów i pracowników. Beneficjentem tego rozwiązania są organizacje charytatywne (pięć sekund uśmiechu to 1 grosz na wybraną inicjatywę), pracownicy (uśmiechy to punkty, które wymieniają na bony do wybranych sklepów), a w końcu cała firma (zadowoleni z obsługi klienci to lepsze wyniki sprzedaży). Wydawałoby się, że w tej sytuacji są sami wygrani. Czy jednak uśmiech ma jakąś ciemną stronę? O tym, czy sensorem można promować kulturę życzliwości, i o ukrytych społecznych kosztach mierzenia uśmiechów rozmawiamy z Cvetą Dimitrową, filozofką i psychoterapeutką.
Wchodzisz do banku, a tam na biurku sensor, który mierzy uśmiechy klientów i pracowników. Beneficjentem tego rozwiązania są organizacje charytatywne (pięć sekund uśmiechu to 1 grosz na wybraną inicjatywę), pracownicy (uśmiechy to punkty, które wymieniają na bony do wybranych sklepów), a w końcu cała firma (zadowoleni z obsługi klienci to lepsze wyniki sprzedaży). Wydawałoby się, że w tej sytuacji są sami wygrani. Czy jednak uśmiech ma jakąś ciemną stronę? O tym, czy sensorem można promować kulturę życzliwości, i o ukrytych społecznych kosztach mierzenia uśmiechów rozmawiamy z Cvetą Dimitrową, filozofką i psychoterapeutką.
AI znaczy rozwój? Rozmowa z Janem Filipem Staniłką
2019-11-07 14:27:00
W tej rozmowie zbliżymy się do głównego nurtu rozmowy o technologii i człowieku: sztucznej inteligencji. Ale nie będzie to rozmowa o robotach, a o polityce. O polityce rozwoju AI na lata 2019-27, wspieraniu innowacyjności i produktywności, gonieniu światowej czołówki i o tym, czy rozwój zawsze oznacza inwestowanie w sztuczną inteligencję, rozmawiamy z Janem Filipem Staniłką – dyrektorem departamentu Innowacji w Ministerstwie Przedsiębiorczości i Technologii, filozofem, ekonomistą, jednym z architektów „planu Morawieckiego”.
W tej rozmowie zbliżymy się do głównego nurtu rozmowy o technologii i człowieku: sztucznej inteligencji. Ale nie będzie to rozmowa o robotach, a o polityce. O polityce rozwoju AI na lata 2019-27, wspieraniu innowacyjności i produktywności, gonieniu światowej czołówki i o tym, czy rozwój zawsze oznacza inwestowanie w sztuczną inteligencję, rozmawiamy z Janem Filipem Staniłką – dyrektorem departamentu Innowacji w Ministerstwie Przedsiębiorczości i Technologii, filozofem, ekonomistą, jednym z architektów „planu Morawieckiego”.
Wolność bywa niebezpieczna. Rozmowa z Piotrem Godziszem
2019-10-24 10:15:10
Nie ma nic złego, że chcemy czuć się bezpiecznie – także w sieci. Niepokojące są jednak poszukiwania recepty na to bezpieczeństwo w świecie pełnym różnic. Czy możliwy jest świat, w którym wszyscy czują się bezpiecznie i nikt nie jest wykluczony? Czy też żeby czuć się bezpiecznie, musimy zamknąć się w światopoglądowych bańkach? O ucieraniu poglądów z osobami różnymi od siebie, o negocjowaniu granic, o tym, kiedy wolność staje się niebezpieczna, a także o obywatelskim projekcie przepisów karania więzieniem za edukację seksualną rozmawiamy z Piotrem Godziszem ze Stowarzyszenia Lambda Warszawa – politologiem, specjalizującym się w tematyce przestępstw motywowanych nienawiścią.
Nie ma nic złego, że chcemy czuć się bezpiecznie – także w sieci. Niepokojące są jednak poszukiwania recepty na to bezpieczeństwo w świecie pełnym różnic. Czy możliwy jest świat, w którym wszyscy czują się bezpiecznie i nikt nie jest wykluczony? Czy też żeby czuć się bezpiecznie, musimy zamknąć się w światopoglądowych bańkach? O ucieraniu poglądów z osobami różnymi od siebie, o negocjowaniu granic, o tym, kiedy wolność staje się niebezpieczna, a także o obywatelskim projekcie przepisów karania więzieniem za edukację seksualną rozmawiamy z Piotrem Godziszem ze Stowarzyszenia Lambda Warszawa – politologiem, specjalizującym się w tematyce przestępstw motywowanych nienawiścią.
Namierzeni. Rozmowa z Adamem Hofmanem o marketingu w sieci
2019-10-10 14:05:12
W dzisiejszych czasach trudno jest oddzielić politykę od marketingu politycznego. W tej rozmowie skupimy się na tym drugim. Jak dotrzeć z odpowiednim komunikatem do konkretnej osoby przed komputerem? Jak dokładnie można ją stargetować? Czy wiadomo, o czym myśli, co ukrywa? O bazach danych, namierzaniu odbiorców w sieci, o strachu, etyce, trollach, botach, teoriach spiskowych i manipulacji w kampaniach rozmawiamy z Adamem Hofmanem – politologiem, byłym politykiem i rzecznikiem prasowym Prawa i Sprawiedliwości, marketingowcem, założycielem firmy PR R4S.
W dzisiejszych czasach trudno jest oddzielić politykę od marketingu politycznego. W tej rozmowie skupimy się na tym drugim. Jak dotrzeć z odpowiednim komunikatem do konkretnej osoby przed komputerem? Jak dokładnie można ją stargetować? Czy wiadomo, o czym myśli, co ukrywa? O bazach danych, namierzaniu odbiorców w sieci, o strachu, etyce, trollach, botach, teoriach spiskowych i manipulacji w kampaniach rozmawiamy z Adamem Hofmanem – politologiem, byłym politykiem i rzecznikiem prasowym Prawa i Sprawiedliwości, marketingowcem, założycielem firmy PR R4S.
Jak osiodłać Pegaza. Rozmowa z Jackiem Cichockim i Wojciechem Klickim
2019-09-26 14:36:38
O tym, z jakich narzędzi korzystają, jak wygląda kontrola nad ich działaniami, a jak mogłaby ona wyglądać, jakie zagrożenia dla wolności i praw obywatelskich wiążą się z dostępnością takich narzędzi inwigilacji takie jak Pegasus – rozmawiamy z Jackiem Cichockim, byłym ministrem spraw wewnętrznych i ministrem koordynującym służby specjalne w rządzie Donalda Tuska, obecnie pracującym na Uniwersytecie Warszawskim, oraz Wojciechem Klickim – prawnikiem z Fundacji Panoptykon specjalizującym się w tematyce kontrolowania służb specjalnych.
O tym, z jakich narzędzi korzystają, jak wygląda kontrola nad ich działaniami, a jak mogłaby ona wyglądać, jakie zagrożenia dla wolności i praw obywatelskich wiążą się z dostępnością takich narzędzi inwigilacji takie jak Pegasus – rozmawiamy z Jackiem Cichockim, byłym ministrem spraw wewnętrznych i ministrem koordynującym służby specjalne w rządzie Donalda Tuska, obecnie pracującym na Uniwersytecie Warszawskim, oraz Wojciechem Klickim – prawnikiem z Fundacji Panoptykon specjalizującym się w tematyce kontrolowania służb specjalnych.
Jak okiełznać algorytm? Rozmowa z Michałem Kosińskim
2019-09-12 19:26:15
Czy osobowość da się zmierzyć? Co ma wspólnego kartkówka z geografii z psychometrią? Jakie poglądy polityczne mają wielbiciele szybkich samochodów? Skąd mamy wiedzieć, że algorytm się myli? Czy dzięki/przez technologię będziemy żyć w nowym wspaniałym świecie? Gościem podcastu Panoptykon 4.0. jest Michał Kosiński, psycholog społeczny i wykładowca Stanford University, którego algorytm został wykorzystany przez Cambridge Analytica.
Czy osobowość da się zmierzyć? Co ma wspólnego kartkówka z geografii z psychometrią? Jakie poglądy polityczne mają wielbiciele szybkich samochodów? Skąd mamy wiedzieć, że algorytm się myli? Czy dzięki/przez technologię będziemy żyć w nowym wspaniałym świecie? Gościem podcastu Panoptykon 4.0. jest Michał Kosiński, psycholog społeczny i wykładowca Stanford University, którego algorytm został wykorzystany przez Cambridge Analytica.
Chiński Wielki Brat. Rozmowa z Katarzyną Sarek
2019-09-05 19:26:40
[Odcinek specjalny] „Przez lata nieświadomie karmiliśmy system danymi, informacjami o nas. Korzystaliśmy z systemów rozpoznawania twarzy na przejściach granicznych, nawet płaciliśmy w ten sposób. Pozwoliliśmy, aby w mieście pojawiło się coraz więcej kamer. Dziś mamy nauczkę, że wszystkie takie działania mogą być wykorzystane przeciwko obywatelom” – w ten sposób Johua Wong, lider protestów w Hongkongu, uzasadniał ataki na latarnie z systemem rozpoznawania twarzy. To, co w Hongkongu kojarzy się z kontrolą społeczną, przez 99% Chińczyków uznawane jest za trening społecznego zaufania. Skąd bierze się ten rozdźwięk – spytaliśmy dr Katarzynę Sarek, adiunkt w Instytucie Sinologii na Uniwersytecie Jagiellońskim.
[Odcinek specjalny] „Przez lata nieświadomie karmiliśmy system danymi, informacjami o nas. Korzystaliśmy z systemów rozpoznawania twarzy na przejściach granicznych, nawet płaciliśmy w ten sposób. Pozwoliliśmy, aby w mieście pojawiło się coraz więcej kamer. Dziś mamy nauczkę, że wszystkie takie działania mogą być wykorzystane przeciwko obywatelom” – w ten sposób Johua Wong, lider protestów w Hongkongu, uzasadniał ataki na latarnie z systemem rozpoznawania twarzy. To, co w Hongkongu kojarzy się z kontrolą społeczną, przez 99% Chińczyków uznawane jest za trening społecznego zaufania. Skąd bierze się ten rozdźwięk – spytaliśmy dr Katarzynę Sarek, adiunkt w Instytucie Sinologii na Uniwersytecie Jagiellońskim.