Wydanie nr: 12 (172) GRUDZIEŃ 2017
ISSN 1643-0883 | RPR 1392












Pomnik Paderewskiego











Natalii Drukarnia Etykiej











JAWI









































Grypa – ostra choroba zakaźna…

Grypa – jest to ostra choroba zakaźna układu oddechowego wywołana wirusem grypy, występująca corocznie i przebiegająca pod postacią ostrej infekcji układu oddechowego. Zakażenie szerzy się drogą kropelkową przez kontakt bezpośredni lub kontakt ze skażonymi przedmiotami, a największa ilość zachorowań występuje podczas sezonowych epidemii. Od zwykłego przeziębienia odróżnia ją nie tylko bardzo gwałtowny przebieg, ale również niebezpieczne powikłania. Przekazywanie wirusa pomiędzy ludźmi odbywa się niezmiernie łatwo - wystarczy bowiem przebywanie z osobą zarażoną i obecność wirusa w kropelkach śliny czy wydzieliny z nosa, które łatwo rozprzestrzeniają się podczas kichania czy kasłania. Warto więc pamiętać o ochronie, unikać możliwości kontaktu z osobami chorymi oraz często myć ręce.

Okres wylęgania trwa od 1 do 4 dni (zwykle 1-2 dni), następnie pojawiają się charakterystyczne objawy: gorączka powyżej 38°C, dreszcze, uczucie rozbicia, osłabienie, bóle mięśniowe, katar, suchy kaszel, bóle głowy, zapalenie gardła. Okres zakaźności utrzymuje się 1 dzień przed i od 3-5 dni po wystąpieniu objawów. Do grupy osób szczególnie podatnych na zakażenie należą: dzieci, osoby powyżej 60 r.ż., chorujące na choroby przewlekłe, po przeszczepach i zakażone wirusem HIV. Leczenie grypy trwa około tygodnia, jednak osłabienie może być odczuwane nawet do kilku tygodni po zakończeniu choroby.

Każdego roku z powodu ciężkiego przebiegu grypy i występujących powikłań, pewien odsetek chorych wymaga hospitalizacji, a także rejestruje się zgony.

Najczęstsze powikłania to:
- zapalenie oskrzeli i płuc,
- zapalenie ucha środkowego mogące prowadzić do częściowej utraty słuchu,
- zapalenie mięśnia sercowego i osierdzia,
- zapalenie krtani i tchawicy,
- zapalenie mięśni,
- niewydolność nerek,
- Zespół Guillaina-Barrego
- zaostrzenie współistniejącej choroby przewlekłej,

Jak uniknąć choroby?

W sezonie epidemicznym ważne jest zachowanie szczególnej ostrożności- bezwzględne przestrzeganie higieny rąk, higieny kaszlu, kontaktów z zakażonymi oraz częste i dokładne wietrzenie pomieszczeń. Niezwykle ważne jest również unieszkodliwienie źródła zakażenia - izolacja chorych (reżim domowy i ograniczenie kontaktów),

Najskuteczniejszą metodą przeciwdziałania zachorowaniom jest zwiększenie odporności poprzez dostępne szczepienia. Szczepienie przeciw grypie to pojedyncza dawka szczepionki, podawana podskórnie lub domięśniowo, zazwyczaj w mięsień naramienny. Odporność poszczepienna powstaje już 2 tygodnie po szczepieniu i utrzymuje się niemal 12 miesięcy i zapewnia ochronę w sezonie epidemicznym. Dlatego też warto zdecydować się na nią już we wrześniu/ październiku. Wówczas będzie nas chroniła przed grypą aż do marca, gdy średnio kończy się sezon zachorowań.

W Polsce sezon grypy przypada między grudniem a kwietniem. Szczyt zachorowań następuje zwykle w lutym i marcu. Zaszczepić się można w dowolnym momencie (im wcześniej, tym lepiej), ale pod warunkiem, że w danym sezonie nie chorowaliśmy na grypę. Zwykle szczepienia wykonuje się w okresie jesiennym przed okresem wzmożonych zachorowań na grypę, jednak wskazane jest również szczepienie podczas sezonu zachorowań. W przypadku osób, które nie zostały zaszczepione jesienią, nadal jest uzasadnione aby zaszczepić się
w okresie wiosny, ponieważ do tego czasu istnieje ryzyko zachorowania na grypę.

Po podaniu szczepionki układ odpornościowy (naturalny system obronny organizmu) wytwarza własną ochronę przed chorobą (przeciwciała). Żaden ze składników szczepionki nie może wywołać grypy.

Co jakiś czas w gazetach, internecie, telewizji, pojawiają się doniesienia o powikłaniach po szczepieniach. Owszem, takowe istnieją. W przypadku omawianego szczepienia są to głównie: zaczerwienienie, obrzęk w okolicy wkucia, stan podgorączkowy, złe samopoczucie, ból mięśni i stawów, czasem nudności. Inne powikłania są bardzo rzadkie! Fałszywe jest stwierdzenie, że szczepienie bywa przyczyną grypy. To niemożliwe, gdyż szczepionka nie zawiera wirusa, ale same antygeny.

Szczepienia przeciwko grypie zaleca się wszystkim, w szczególności: przewlekle chorym (choroby układu sercowo-naczyniowego; oddechowego, w tym astma, mukowiscydoza; choroby wątroby lub nerek; choroby neurologiczne; hematologiczne; metaboliczne, w tym cukrzyca, otyłość itp.); osobom z obniżoną odpornością (np. HIV/AIDS lub które są w trakcie leczenia, np. chemioterapii); osobom w wieku powyżej 50 roku życia; pracownikom służby zdrowia, szkolnictwa, przedszkoli, handlu, transportu; osobom narażonym na kontakty z dużą liczbą ludzi; osobom pracującym na otwartej przestrzeni (narażonym na zmiany temperatury
i niekorzystne warunki atmosferyczne); kobietom planującym ciążę na sezon grypowy; zdrowym dzieciom od 6 miesiąca życia; osobom opiekującym się dziećmi w wieku poniżej 5 roku życia.

Szczepić się przeciwko grypie nie powinny w zasadzie tylko osoby, które mają ciężką alergię na białko jaja kurzego (zawarte w preparacie) i ci, u których stwierdzono reakcje nadwrażliwości. Poza tym czasowym przeciwwskazaniem jest choroba przebiegająca
z gorączką (powyżej 38 stopni). Kobiety w ciąży mogą być szczepione w II i III trymestrze.

Dlaczego co roku jest nowa szczepionka?

Grypa jest chorobą, która może się szybko rozprzestrzeniać i jest wywoływana przez wiele różnych szczepów wirusa, które mogą zmieniać się każdego roku. Skład szczepionki jest zmieniany co roku, aby chronić przed aktualnie krążącymi szczepami wirusa grypy w danym sezonie.

W każdym sezonie epidemicznym wyizolowane i wstępnie scharakteryzowane szczepy wirusa grypy przesyłane są przez Krajowy Ośrodek ds. Grypy do Centrum Referencyjnego WHO ds. Grypy w Londynie. Wirus grypy ulega szybkim mutacjom, dlatego na każdy sezon powstaje nowa szczepionka. Spośród szczepów wirusa wyizolowanych w danym sezonie epidemicznym na całym świecie, WHO wybiera szczepy, które znajdą się w składzie szczepionek na następny sezon. Aktualnie dostępna szczepionka na sezon epidemiczny 2017/2018 zawiera w swoim składzie cztery szczepy wirusa: AH1N1, AH3N2 oraz dwa różne typy B.
Lekarze i eksperci twierdzą zgodnie, że szczepienia przeciwko grypie są jedyną skuteczną metodą, która pozwala uniknąć zarówno zachorowań, jak i powikłań.

Opracowała:
Anna Świdzińska

Bibliografia:

1) ulotka informacyjna dla pacjenta
2) Choroby zakaźne i pasożytnicze- epidemiologia i profilaktyka- Anna Baumann- Popczyk, Małgorzata Sadkowska- Todys, Andrzej Zieliński
3) Dane epidemiologiczne od lat 2008- 2014: Sprawozdania o zachorowaniach i podejrzeniach


Przedruki tekstów tylko po uzyskania zgody redakcji EuroPartner


III Konferencja „Bóg, rodzina, firma, hojność”…

„Dziękujemy, że możemy się znów spotkać podczas tej konferencji. Ona pokazuje potrzebę dążenia do naszej jedności i współpracy w duchu Bożych Zasad” – mówili przedsiębiorcy, którzy 3 i 4 listopada br. w Poznaniu uczestniczyli w III edycji Konferencji Przedsiębiorców Katolickich „Bóg, Rodzina, Firma, Hojność”. Organizatorem wydarzenia było Duszpasterstwo Przedsiębiorców i Pracodawców Talent w Archidiecezji Poznańskiej, a współorganizatorami: Fundacja Dzieła Chrześcijańskiego Biznesu i Komisja Ekonomii Komunii Ruchu Focolari w Polsce. (Na zdjęciu od lewej: Marek Nowak – członek Zarządu Towarzystwa im. Hipolita Cegielskiego, ks. dr Rafał Ostrowski – laureat Medalu „Labor Omnia Vincit” i Dominik Górny – członek Towarzystwa im. Hipolita Cegielskiego )

W konferencji wzięło udział ponad stu przedsiębiorców z całej Polski, przedstawicieli różnych branż i sfer życia gospodarczego. Otwarcie konferencji uświetniło wyróżnienie pomysłodawcy wydarzenia – ks. dr. Rafała Ostrowskiego. Był to Srebrny Medal „Labor Omnia Vincit” – „Praca Wszystko Zwycięża” przyznany przez Kapitułę Towarzystwa im. Hipolita Cegielskiego. W imieniu dr. Mariana Króla, Prezydenta THC, medal wręczyli Dominik Górny i Marek Nowak, członkowie Zarządu. „Dziękuję za ten wspaniały medal. Jego otrzymaniem jestem zaskoczony, ale jestem też szczęśliwy, bo to bardzo prestiżowe wyróżnienie” – powiedział laureat. „W tym też kontekście celem konferencji jest udowadnianie, że sukcesem przedsiębiorcy powinno być jednoczesne pomnażanie przynajmniej dwóch rodzajów kapitałów: ludzkiego i materialnego. Docenianie ich dwóch przybliża do tworzenia trwałych wartości, aby zysk dla firmy utożsamiał się z zyskiem społecznym” – zaznaczył Górny.

Konferencja poruszała dwa tematy: ekonomię komunii i walkę wewnętrzną przedsiębiorcy. Poza ponad setką przedsiębiorców z całej Polski, wziął w niej udział gość specjalny: Tom Peterson, międzynarodowy ekspert PR i od reklamy, który przybył ze Stanów Zjednoczonych.

Red.


Przedruki tekstów tylko po uzyskania zgody redakcji EuroPartner


Prawda liczb i statystyk…

Wszędzie tam, gdzie dostrzegamy sprzeczność między własnym oglądem rzeczywistości - z natury ograniczonym i niedoskonałym - a opisem statystycznym, skłonni jesteśmy winić ten ostatni, oskarżając zbyt łatwo statystykę o nierzetelność lub manipulację. Ale nietrudno dostrzec, jak śmiało wkracza w nasze codzienne życie opis liczbowy, nierzadko także do tych dziedzin, w których się go w ogóle nie spodziewano (psychologii, edukacji, sztuki). Dzieje się tak nie z inspira­cji statystyków, lecz na skutek dyna­micznego rozwoju technik kompu­terowych, dla których język liczb jest znacznie wygod­niejszy od każdego innego. Z jednej strony liczby budzą w nas respekt swoją jednoznacznością, precyzją, a także logiką działań na nich. Jest on w dużej mierze pochodną ukształtowanego w nas podczas szkolnej edukacji sza­cunku, jakim darzymy matematykę.

Paradoksalnie ma­tematyka kojarzy się nam głównie z liczbami, podczas gdy prawdziwi matematycy woleliby liczb w ogóle w niej nie dostrzegać i się nimi nie zajmować. Stanisław Ulam (1909-84), jeden z najwybitniejszych polskich matematy­ków, gdy w latach 40. XX w. został zaangażowany w USA do prac nad konstrukcją bomby atomowej, zażartował któregoś dnia, mówiąc do swojego kolegi fizyka: „Jestem czystym matematykiem, który upadł tak nisko, iż jego prace zawierają prawdziwe liczby z dokładnością do kil­ku dziesiętnych miejsc".

Liczby w zetknięciu z prawdziwą rzeczywistością tra­cą swój urok, bo stają się zaledwie niedoskonałym od­wzorowaniem rzeczywistości. O tym najczęściej zapo­minamy, patrząc na różnego rodzaju dane statystyczne. W matematyce dwa równa się zawsze dwa, podczas gdy w prawdziwym świecie żadne dwie osoby nie są iden­tyczne z innymi dwiema osobami. Ba, żadne dwie tony węgla nie są takie, jak inne dwie tony węgla. Warto więc zdać sobie sprawę z tego, że posługując się opisem licz­bowym (statystycznym), nie opisujemy rzeczywistego świata, lecz jego odwzorowanie. Jest to, mimo szybko ro­snących możliwości wzbogacania takiego opisu o wiele kolejnych cech, odwzorowanie uproszczone, spłaszcza­jące nieograniczoną różnorodność świata rzeczy i orga­nizmów żywych.

Big Data

Dodać jednak trzeba, że cały wysiłek statystyków kon­centruje się właśnie na tym, aby owo zróżnicowanie rze­czywistości jak najlepiej oddać w odpowiednich sposo­bach analizy, właściwych miernikach i wskaźnikach. Gwał­towny wzrost możliwości obliczeniowych ostatnich dekad sprawia, że każdy badany przez statystyków obiekt charak­teryzowany jest przez znacznie więcej cech niż w przeszłości. To, co kiedyś z racji ograniczonych możliwości pomia­ru i przetwarzania danych traktowano z konieczności jako zbiór jednorodnych obiektów, obecnie potrafimy klasyfi­kować w znacznie bardziej spójne wewnętrznie podzbiory. Niekiedy dodatkowe trzy, cztery cechy kredytobiorców po­zwalają bankom dużo trafniej przewidzieć prawdopodo­bieństwo zaległości w przyszłych spłatach rat kredytowych.

Podobnie dzieje się w medycynie. Dodatkowe badania diagnostyczne zlecane przez lekarzy służą lepszemu od­wzorowaniu różnorodności cech poszczególnych pacjen­tów, co z kolei pozwala na lepszy dobór leków i kuracji. Jeszcze niedawno na stwierdzenia medyków, iż palenie ty­toniu skraca życie, odpowiadał chór niedowiarków wska­zujących osoby, które, paląc do końca swoich dni, dożyły dziewięćdziesięciu albo i więcej lat. W głosach tych zawarta była przede wszystkim nieufność wobec potwierdzonych wielokrotnie statystycznych prawidłowości. Prawdopo­dobnie już niedługo będziemy w stanie poznać i zrozu­mieć, jakie cechy powodują, że u części palących następu­je mniejsze, a u innych większe spustoszenie w organizmie.

Czy zadowoli to sceptyków? Raczej nie, bo oczekują oni od statystyki tego, czym się ona nie zajmuje. Chcieliby odpowiedzi na pytanie o swój indywidualny, niepowta­rzalny organizm. Tymczasem statystyka pokazuje to, co jest wspólne w określonych zbiorowościach, wydobywa wiedzę ukrytą w masie zdarzeń i przypadków. I nawet jeżeli na mnie i na moich najbliższych w żaden sposób nie działają akcje wyprzedaży w sklepach, to nie stoi to w sprzeczności z prawidłowością znaną handlowcom, iż podczas takich akcji ruch w sklepach zwiększa się o okre­ślony procent.

Możliwości przewidywania przez statystyków ta­kich lub innych zbiorowych zachowań w populacjach ludzkich budziły w przeszłości poważne kontrowersje. Przede wszystkim natury filozoficznej. Immanuel Kant już w XVIII w. pisał w jednym ze swoich dzieł: „Poszcze­gólni ludzie, a nawet całe ludy niewiele zważają na to, że kiedy każdy z nich zgodnie ze swymi własnymi skłonno­ściami, często jeden przeciw drugiemu, kieruje się swymi własnymi zamiarami, to niepostrzeżenie, niby za nicią przewodnią, podążają oni za zamysłem przyrody i przy­czyniają się do jego realizacji, mimo że pozostaje on dla nich nieznany".

Współcześnie, kiedy wobec nowych zagrożeń o charak­terze globalnym poświęcamy coraz więcej indywidual­nej wolności dla zwiększenia wspólnego bezpieczeństwa, świadomość podlegania prawidłowościom zbiorowych za­chowań ludzkich widzimy raczej jako szansę niż ogranicze­nie. W wielu dziedzinach życia "wykorzystuje się dane staty­styczne o wzorcach postępowania określonych grup osób w celu wywarcia wpływu na te zachowania, w tym na ich zmianę, jeżeli dotyczy to np. przestępstw. Predyktywne sta­tystyki, wskazujące na znane policji miejsca i czas dokona­nych w przeszłości wykroczeń, służą wzmocnieniu działań prewencyjnych, aby do kolejnych niezgodnych z prawem czynów nie dopuścić.

Te rosnące możliwości zbierania i przetwarzania da­nych, opisywane terminem Big Data, są doskonale wi­doczne w rożnych dziedzinach naszego życia. Obserwu­jemy je m.in. w coraz lepiej profilowanych ofertach han­dlowych dla każdego z nas, który w internecie zdążył po­zostawić wiele informacji o swoich gustach, zaintereso­waniach czy zakupach. Każdego dnia, tygodnia i miesiąca zasoby tych danych rosną. Świat zanurza się w takich ich ilościach, o których nie śniło się twórcom statystyki prze­łomu XIX i XX w. Rodzi się więc pytanie, czy typowe bada­nia statystyczne, obejmujące całe populacje (takie jak spi­sy powszechne ludności i mieszkań) lub ich reprezentacje (badania sondażowe), mają jeszcze sens? Czy nie zostaną one wkrótce wyparte przez technologię Big Data i sztucz­ną inteligencję? I chyba najważniejsze - czy te ewentual­ne zmiany przyczynią się do bardziej wiarygodnego opisu rzeczywistości?

Sondażowe skrzywienie

Wielu z nas kształtuje swoją opinię o statystyce i o ba­daniach statystycznych na podstawie jednego rodza­ju tych badań - popularnych i chętnie eksponowanych w mediach sondaży. Tematyka ich obejmuje wiele roż­nych zagadnień i dotyczy niemal wszystkich dziedzin ży­cia. Najwięcej jednak uwagi przyciągają i najwięcej emo­cji budzą sondaże wyborcze. Ich rosnąca, a w końcu nad­mierna ilość, zredukowanie do minimum kontaktu an­kietera z respondentem, a do tego pośpiech w realizacji popsuły ich reputację.

Obecnie śmiało można już mówić o kryzysie w tej dzie­dzinie. Przyznać trzeba, że znaczącą rolę w kreowaniu kli­matu post-prawdy odegrały porażki badań sondażowych ostatnich dwóch lat: dwukrotnie w Wielkiej Brytanii (wybo­ry parlamentarne 2015 r. i Brexit w 2016 r.) i raz w USA (wy­bory prezydenckie 2016 r.). Skutkiem tych błędów jest utrata społecznego zaufania do sondaży, a w znacznej mierze także do samej idei i metodyki badań reprezentacyjnych. Ostenta­cyjnie ten brak zaufania wyraziło j uż kilka gazet francuskich, oświadczając, że nie będą publikować sondaży przed zbli­żającymi się w tym kraju wyborami prezydenckimi w kwiet­niu i maju.

Na podstawie analizy chybionych sondaży, które by­ły także udziałem polskich instytutów badawczych, w szczególności w pierwszej turze wyborów prezydenc­kich w 2015 r., można z dużym prawdopodobieństwem wskazać na najważniejsze źródła błędów. Najpierw jed­nak wskażmy ten element, który z całą pewnością nie zawiódł. Otóż w żadnym z wymienionych aktów wybor­czych nie ucierpiała reputacja samej statystycznej me­todyki badań próbkowych. Jej wiarygodność znajdu­je najbardziej jednoznaczne potwierdzenie w trafności badania exit poll, czyli w możliwości wskazania z dużą dokładnością wyniku wyborczego bezpośrednio po za­mknięciu lokali wyborczych, zanim jeszcze jakiekolwiek głosy zostaną policzone. Jeżeli na podstawie próby liczą­cej mniej niż 1 proc. uczestników wyborów można było precyzyjnie określić strukturę wszystkich (wielu milio­nów) oddanych głosów, to trudno znaleźć lepszy dowód na skuteczność statystycznego wnioskowania.

Także w Polsce, licząc od wyborów prezydenckich 2010 r., aż do parlamentarnych wyborów 2015 r., łącz­nie z referendum warszawskim (z października 2013 r.), w co najmniej sześciu najważniejszych aktach wybor­czych wyniki exit poll nie różniły się od prawdziwych wyników o więcej niż 1,6 pkt proc. Wyjątkiem były tyl­ko błędne prognozy wyników wyborów samorządowych z jesieni 2014 r., spowodowane - jak się później okazało - zamieszaniem z tzw. broszurą wyborczą, czyli niewy­starczającym zrozumieniem przez część wyborców za­sad głosowania.

Powszechne w świecie zaufanie do techniki wniosko­wania na podstawie prób losowych stosowanej w exit poll jest tak duże, że pojawienie się większych rozbież­ności między wynikami tego badania a ostatecznym wy­nikiem wyborów służy za istotną przesłankę kwestiono­wania uczciwości wyborów. W przeszłości od tego typu rozbieżności rozpoczynały się dochodzenia w sprawie fałszerstw wyborczych w dawnej Jugosławii (pod rząda­mi Slobodana Milosevica w 1996 r.) oraz w Peru (w wybo­rach prezydenckich 2000 r.).

Źródła błędów

W przedwyborczych badaniach preferencji politycz­nych stosowana jest ta sama co w exit poll technika wnio­skowania na podstawie losowych prób respondentów. Wy­korzystana w sondażach przedwyborczych często zawo­dzi, a w dniu wyborów nie. Przyczyn tego wymienić moż­na kilka, część znana jest od dawna, a część ujawniła się dopiero w ostatnich paru latach. W tej pierwszej grupie warto zwrócić uwagę na fakt, że w przeciwieństwie do ba­dania exit poll, w którym rejestruje się dokonany przez respondenta wybór, sondaż przedwyborczy koncentruje się na kwestii trudniejszej, mianowicie na zamiarach wybor­cy. Docieka się intencji wyborcy, które często ulegną jesz­cze zmianie przed dniem głosowania, i które nie zawsze chciałby respondent komukolwiek ujawnić. Ale nawet gdyby udało się bezbłędnie określić preferencje wszyst­kich uprawnionych do głosowania bezpośrednio przed wyborami, to na horyzoncie pojawia się kolejne wyzwa­nie - frekwencja wyborcza. Nie wiadomo, którzy wybor­cy zdecydują się ostatecznie wziąć udział w głosowaniu.

Struktura preferencji politycznych u 40 proc. lub 50 proc. uczestników wyborów może być zupełnie inna od struktury w całej zbiorowości uprawnionych do głosowa­nia. Sondaż przedwyborczy trzeba by w tych warunkach traktować raczej jako symulację wyniku wyborczego, aniżeli jego przewidywanie. Z tym problemem, charak­terystycznym dla każdego demokratycznego kraju (z wy­jątkiem niewielu, w których głosowanie jest obowiązko­we), badacze nieźle sobie radzili przez minione dziesię­ciolecia. Stworzyli skuteczny w wielu krajach mechanizm przypisywania respondentom subiektywnych prawdo­podobieństw, że wezmą rzeczywiście udział w wyborach (ang. likely voter technology). Istotą jego było zawarcie w kwestionariuszu dodatkowych kilku pytań, mających ujawnić, jak duże są szanse, że dany respondent - repre­zentant wyborców o określonych preferencjach partyj­nych - zagłosuje w dniu wyborów. Prawdopodobieństwa te pełniły rolę wag dla zwolenników poszczególnych par­tii w ostatecznej prognozie wyniku wyborczego.

Spektakularnym sukcesem zastosowania tej techniki była wykonana przez Instytut Gallupa prognoza wyniku wyborów do Kongresu USA w listopadzie 2002 r. Na podstawie zbadania losowej próby 1221 respondentów i wykorzystania wspomnianego wyżej mechanizmu udało się przewidzieć wynik wyborów, w których wzięło udział ponad 75 mln wyborców, z do­kładnością do 0,7 pkt. proc. Podobnej ran­gi sukces odnotował w Polsce TNS OBOP przed wyborami parlamentarnymi w paź­dzierniku 2011 r. Prognoza sporządzona przez ten ośrodek, którą w piątek, dzień przed ciszą wybor­czą, opublikowała „Gazeta Wyborcza", okazała się ob­ciążona mniejszymi od 1 pkt proc. błędami w odnie­sieniu do każdego z pięciu ugrupowań, które dostały się do Sejmu. Niestety, obecnie mechanizm ten sta­je się coraz mniej skuteczny w Polsce i w innych kra­jach. Zdezaktualizowały się cechy, które były skorelowa­ne z prawdopodobieństwem udziału respondenta w wy­borach, zmniejszył się odsetek respondentów w próbie gotowych udzielić odpowiedzi na dodatkowe pytania, a ponadto... żyjemy w czasach post-prawdy. Podejrze­wa się, że wyborcy ukrywają swoje rzeczywiste sympa­tie polityczne.

Trzeba jednak wyraźnie podkreślić, że wysuwane pod adresem respondentów podejrzenia o masowe wprowa­dzanie w błąd ankieterów nie zostały do tej pory dowie­dzione. Jest co prawda szereg przesłanek wskazujących na to, że rosnący odsetek badanych ulega presji popraw­ności politycznej w kontaktach z ankieterami, zwłasz­cza przy silnej presji mediów i kręgów opiniotwórczych, ale jednoznacznych dowodów na to wciąż brakuje. Praw­dopodobnie dostarczą ich najbliższe miesiące, gdy uda się ustalić, na ile silnie akcentowana postawa establish­mentu w Wielkiej Brytanii, przeciwna opuszczaniu przez Zjednoczone Królestwo Unii Europejskiej, i analogicz­na w USA przeciwko kandydaturze Donalda Trumpa, wzmogły skłonność respondentów do ukrywania po­staw odmiennych.

Do tej pory w poważnych badaniach na temat przy­czyn porażek sondaży nie brano pod uwagę hipotezy o istotnej roli nieprawdziwych odpowiedzi responden­tów. Na przykład w badaniu źródeł błędów sondażowych w brytyjskich wyborach parlamentarnych 2015 r., zleco­nym przez The British Polling Council, zwrócono uwagę przede wszystkim na metody doboru prób responden­tów, techniki pomiaru sondażowego, zmiany decyzji przez wyborców tuż przed głosowaniem, ważenie i ka­librację wyników, jakość operatów losowania, odmowy respondentów, dostępność respondentów i gotowość do współpracy, kolejność pytań i użyte słownictwo w kwe­stionariuszach. Nie było wśród tych czynników celowego podawania przez respondentów nieprawdziwych in­formacji.

Znalazł się natomiast inny czynnik, wcześniej nigdy niezidentyfikowany, a w rzeczywistości dobrze wkom­ponowujący się w atmosferę post-prawdy. Tyle, że doty­czy on nie wyborców, lecz realizatorów sondaży oraz me­diów, które je publikują. Chodzi o zjawisko zwane dąże­niem do trzymania się w stadzie (ang. herding), a pole­gające na obawie przed ujawnieniem wyników znacznie odbiegających od innych sondaży. Instytuty badawcze mogą owo dążenie do bycia w zgodzie z innymi osiągać na kilka sposobów. Najczęstszym jest stosowanie takich mechanizmów ważenia danych w próbie, czyli dostoso­wywania struktury próby do określonego zestawu cha­rakterystyk populacji, aby rezultaty sondażu zbliżyć do wyników innych ośrodków badawczych. Kolejnym spo­sobem jest zwiększanie pierwotnie ustalonej wielkości próby do momentu, aż wyniki sondażu zbliżą się do ocze­kiwanych (do trendu na rynku). Jednak najprostszym ze sposobów jest nieujawnianie przez realizatorów lub przez me­dia tych sondaży, które znacznie odbiegają od pozostałych.

Reputacja statystki

Możemy mieć więc do czynie­nia z sytuacją, w której źródeł kryzysu sondaży szukać należy poza statystyką i jej metodologią. Nie zwalnia to oczywiście sta­tystyków od odpowiedzialności za wypracowanie takich metod i technik, które w istniejących wa­runkach, nawet w czasach post--prawdy, przywrócą sondażom utraconą reputację. Wydaje się, że kluczową rolę w tych nowych rozwiązaniach będą odgrywały kombinacje coraz więk­szej liczby dużych zbiorów informacji o respondentach, czyli elementy tego, co nazywamy Big Data. To, co w tej chwili trzeba uzyskać od respondenta, a co może być ob­ciążone słabą jego pamięcią (np. czy brał udział w ostat­nich wyborach) albo skłonnością do nieujawniania swoich politycznych przekonań, będzie stopniowo zastępo­wane innymi informacjami o nim. Będą to informacje, które charakteryzują go jako osobę funkcjonującą na portalach społecznościowych i w różnej innej aktywno­ści internetowej. Sądzę, że na początek dane tego rodza­ju zaczną być wykorzystywane do ważenia i skalowania (kalibracji) struktury prób badawczych w taki sposób, aby najwierniej odzwierciedlały one strukturę populacji

Kolejnym etapem będzie tworzenie paneli badaw­czych, czyli stałych lub częściowo rotacyjnych, odpo­wiednio sprofilowanych do określonej tematyki prób respondentów. Kontakt z nimi będzie się odbywał wy­łącznie drogą internetową. Już obecnie wiarygodność informacji uzyskiwanych w sondażach internetowych jest większa niż w ankietowaniu telefonicznym. Niektórzy tłumaczą to większą anonimowością respondenta komunikującego się z ankieterem drogą elektroniczną. Inni podkreślają dodatkowo brak presji ankietera, który w rozmowie telefonicznej zwykle wymusza zajęcie kon­kretnego stanowiska przez respondenta, nawet wtedy, gdy faktycznie najlepszym wariantem odpowiedzi było­by „nie wiem".

Mało prawdopodobne wydaje się natomiast zupełne porzucenie przez statystyków i socjologów badań son­dażowych. Co prawda Viktor Mayer-Schonberger i Ken­neth Cukier, autorzy książki „BIG DATA. Rewolucja, któ­ra zmieni nasze myślenie, pracę i życie", twierdzą, że „idea badania próbek traci sens, skoro możemy korzy­stać z dużej liczby danych", jednak argument, jakim się posługują, jest mało przekonujący. Autorzy przyznają, że duże zbiory danych charakteryzuje zwykle pewien bezład, zwłaszcza na tle starannie wyselekcjonowanych prób losowych, ale uważają, że jest on rekompensowa­ny pełniejszą niż w próbie informacją. „Jesteśmy goto­wi do poświęcenia odrobiny do­kładności w zamian za poznanie ogólnego trendu" - stwierdzają. W rozumowaniu tym popełniają błąd polegający na oczekiwaniu, iż każde zwiększenie liczby ob­serwacji, a w szczególności obję­cie obserwacją wszystkich jedno­stek populacji, musi prowadzić do lepszego jej poznania.

Źródłem tego nieprawdziwe­go przekonania, typowego dla osób mających małe doświadcze­nie w badaniach próbkowych, jest wiara w brak błędów i obciążeń, gdy obserwacji podda się wszyst­kie lub prawie wszystkie jednostki danej zbiorowości. Innymi słowy, oznacza to przyjęcie implicite założenia, iż najpoważniej­szym rodzajem błędu w badaniach próbkowych jest błąd wynikający z objęcia obserwacją próby, a nie całej popu­lacji, czyli błąd losowania. Tymczasem błąd ten stanowi zaledwie jedną z kilku kategorii błędów, jakimi może być obciążone badanie statystyczne. Jest tą kategorią błędu, którą badacze potrafią kontrolować, a do tego często by­wa najmniejszym składnikiem całkowitego błędu badania. W praktyce badań statystycznych obserwuje się w ostat­nich latach wzrost znaczenia błędów nielosowych, spowo­dowanych m.in. częstymi odmowami respondentów, trud­nościami w zdobyciu dobrego operatu losowania czy też usterkami w narzędziu pomiarowym (kwestionariuszu).

W możliwościach, jakie obecnie oferuje Big Data, wi­dzieć trzeba przede wszystkim szansę na doskonalenie jakości badań próbkowych, w tym sondażowych, a nie zagrożenie dla ich zastosowań. W dalszej przyszłości, wraz z rozwojem sztucznej inteligencji, może się to zmie­nić. Na razie jednak za wcześnie ogłaszać, że wkroczyli­śmy w epokę post-statystyki.

Mirosław Szreder
Foto: Internet


Przedruki tekstów tylko po uzyskania zgody redakcji EuroPartner



Witryna, na której się znalazłeś wykorzystuje pliki cookies, dalsze korzystanie z niej oznacza wyrażenie zgody na wykorzystanie plików cookies. Więcej informacji znajdziesz w Polityce Prywatności.

Tak, rozumiem