Diagnoza stanu nauki – projekt Obywateli Nauki

Ruch społeczny Obywatele Nauki realizuje różne interesujące projekty.
Jednym z takich projektów jest ,,Diagnoza stanu nauki”, czyli działanie mające na celu opis różnych aspektów związanych z nauką w Polsce.
Powstał ,,zespół diagnoz”, który w pierwszym kroku gromadzi istniejące raporty, dokumenty, strategie, źródła poświęcone nauce.

Zespół jest interdyscyplinarny [znaleźć można między innymi historyka, biologa, socjologa, statystyka].
Prace zespołu koordynuje prof. Wojciech Bal, a do zespołu należą zarówno osoby z ON jak i spoza tego ruchu.
Z uwagi moje na zainteresowanie raportami o nauce również biorę udział w pracach tego zespołu.

Zbierane przez nas raporty są linkowane na wiki Baza wiedzy diagnostów

Dwie interesujące podstrony tego wiki to:
Lista raportów
Lista strategii

Może te raporty zainteresują naszych czytelników.
A może znacie jakiś interesujący raport, który nie jest wymieniony w liście powyżej?
O nauce pisze się wiele z różnych perspektyw. Staramy się zebrać różne punkty widzenia, różne źródła informacji.
To jednak trudne zasadnie dla niewielkiej grupy ludzi. Dlatego też mam do czytelników taki apel:

Jeżeli znacie interesujący raport dotyczący nauki, finansowania nauki, stanu nauki, naukowców, problemów, silnych stron itp
lub jeżeli macie trochę czasu i chcielibyście takich raportów poszukać w czeluściach internetu
poinformujcie nas o tym!

Jeżeli znacie takie ciekawe źródło możecie dodać je samodzielnie do strony http://smarterpoland.pl/ON/doku.php?id=robocze.
Każdy ma uprawnienia edycji tej podstrony i dodania linków do interesujących tematów.

Możecie też wysłać taki raport/link na adres przemyslaw.biecek na serwerze gmail.

Pomóżcie zebrać różne źródła informacji o nauce w Polsce!
Może uda się na ich podstawie, zdiagnozować największe bolączki i zastanowić się co można poprawić by w przyszłości było lepiej (jeszcze lepiej?).

Nauka w Polsce 2013, czyli słów kilka o nowym raporcie ministerstwa

W poprzednim tygodniu ukazał się raport ,,Nauka w Polsce 2013” [znajdziesz go tutaj]. Jest on prawdopodobnie opracowany przez ministerstwo [,,prawdopodobnie” ponieważ w raporcie brakuje informacji kto jest autorem]. Jest w nim wiele wykresów, z których część można by było zrobić lepiej. I o tym co można zrobić lepiej będzie dzisiejszy wpis.

,,Nowoczesna” forma

Raport ma bardzo ,,nowoczesną” formę, składa się głównie z wykresów. Brak w nim komentarzy czy wniosków dotyczących prezentowanych wyników, jedynie gdzieniegdzie można znaleźć objaśnienia jak pewne współczynniki były liczone.
Przez co w pierwszej chwili można odnieść wrażenie, że to jedynie slajdy z prezentacji/streszczenia [sprawdzałem nawet w słowniku języka polskiego czy taki zbiór wykresów można nazywać raportem].

Do większości wykresów brakuje informacji o źródle danych, które są przedstawiane. Utrudnia to weryfikację prezentowanych liczb. Niestety do standardów raportów OECD jest jeszcze daleko, tam przy poważnych raportach do każdego wykresu dodane są odnośniki do źródeł danych.

Sytuacja z tym raportem jest kuriozalna. Mamy zbiór wykresów, w części nie najlepiej przygotowanych, nie ma odnośników do danych źródłowych, nie ma tabel z liczbami, na postawie których te wykresy powstały. Brakuje też wniosków czy podsumowania, które można by zweryfikować.
Rodzi to wręcz obawy, że z tego raportu każdy odczyta sobie wnioski jakie będą mu pasować, a nieuporządkowana formuła raportu nie pozwoli na ich weryfikację.

Wiele interesujących tematów

W raporcie poruszanych jest wiele tematów. Można zobaczyć wykresy traktujące o finansowaniu nauki w Polsce (chciałem napisać przeczytać, ale akurat przeczytać się nie da).
Począwszy od wysokości nakładów na naukę, informacji co w jakiej wysokości jest finansowane, jest o tym, ile jest uczeni i pracowników naukowych w różnych województwach (choć nie jest jasne jak liczeni są ci, co pracują w rożnych województwach), ile jest jednostek badawczych, jakiego typu i jak bardzo aktywnych. I wiele innych informacji.

Zachęcam do przejrzenia tego raportu.
Aktualna wersja ma podtytuł ,Edycja 1′, może kolejne edycje będą miały już liczby i wnioski dzięki czemu będzie to ciekawe źródło informacji.

Co można by w raporcie poprawić?

Zaczniemy od retorycznego pytania: czy jeżeli w raporcie nie ma spisanych wniosków i nie ma podanych źródeł to trudno się czegoś przyczepić?
Wybierzmy kilka rodzynków. Powiedzmy, że w ramach działalności typu ,,watchdog”.
Dwie pierwsze to oczywiste grube błędy, kolejne to sugestie.

Czytaj dalej Nauka w Polsce 2013, czyli słów kilka o nowym raporcie ministerstwa

Śniegowy wykres słupkowy a oparta o dane dyskusja o finansowaniu nauki

Dziś chciałbym zareklamować raport Dominika Batorskiego, Michała Bojanowskiego i Dominiki Czerniawskiej ,,Diagnoza mobilności instytucjonalnej i geograficznej osób ze stopniem doktora w Polsce”.
Ciekawa lektura (choć wielu wykresów można się bardzo czepiać, ale to innym razem), można się z niej dowiedzieć jaki jest średni wiek uzyskania doktoratu, habilitacji, profesury, ile na rok mamy nowych doktorów, ilu habilitowanych, ilu profesorów, jak te wskaźniki zmieniają się w czasie i jak wyglądają w różnych dyscyplinach. Jest o dużo informacji o mobilności, a cały rozdział 6 dotyczy mobilności międzynarodowej.

Przykładowo, rysunek 30 z tego raportu przedstawia procent osób, które naukowo pracują w miejscu gdzie zrobiły doktorat. Z wymienionych tam krajów (Polska i kraje europy zachodniej) Polskich naukowców charakteryzuje mała mobilność, około 90% osób pracujących w jednostkach badawczych pracuje w miejscu w którym zrobiło doktorat. We wszystkich innych krajach ten współczynnik jest znacznie niższy.

Razem z młodym i młodą postanowiliśmy odtworzyć ten wykres dla Polski, Irlandii i Szwajcarii używając śniegowych trójwymiarowych wykresów słupkowych. Jest pewien błąd odwzorowania, ale to wina -15C mrozu.
[Może pamiętacie jak pisałem o terenowej grze statystycznej na piaszczystej plaży (link)? Jak widać można też na zaśnieżonym ogródku]

O ww. raporcie piszę nieprzypadkowo.

Czytaj dalej Śniegowy wykres słupkowy a oparta o dane dyskusja o finansowaniu nauki

Jaki jest pożytek z Internetu dla nauki akademickiej, dlaczego warto się dzielić mikroodkryciami i jak wykorzystać technikę, by pracować wydajniej

Czym jest nauka? Czy nauką jest to, na co można dostać grant w instytucjach finansujących naukę? A może to, co można opublikować w czasopiśmie z ministerialnej listy ,,czasopism punktowanych”? Czy naukowcem jest osoba opłacana z funduszy na naukę?

Definicja nauki (o ile istnieje) jest szersza i obejmuje wszystko co rozszerza nasze (nasze=ludzkości) horyzonty.
Można zapytać, czy warto dyskutować nad tym czym jest nauka? Tak, chociażby po to wyzwolić się ze schematów narzucanych przez kryteria oceny jednostek akademickich.
Pojawia się coraz więcej inicjatyw, w ramach których nauka rozwijana jest poza murami uczelni wyższych, a finansowana jest np. przez osoby prywatne lub duże firmy (vide. oddziały badawcze gigantów IT Microsoft Research, IBM Research, Google, Amazon, Yahoo itp). Prowadzenie badań przy wsparciu osób prywatnych przyświeca między innymi fundacji SmarterPoland, a przykładów na tzw. crowdresearch jest coraz więcej, np. opisany w artykule ‚Baumgartner albo portiernia, czyli coming-out w temacie finansowania nauki w Polsce’.

Ok, więc porozmawiajmy o tym czym jest nauka i jak wygląda lub może wyglądać. Dzisiaj mamy gościnny wpis fizyka Piotra Migdała. Może sprowokuje on Was do podobnych lub odmiennych komentarzy / innych gościnnych wpisów.

Nauka 2.0
Czyli o tym jaki pożytek z Internetu dla nauki akademickiej, dlaczego warto się dzielić mikroodkryciami i jak wykorzystać technikę, by pracować wydajniej.
Piotr Migdał

Nauka to nie odkrywanie obiektywnego stanu świata, niczym kopanie w platońskiej jaskini. To pewien proces poznawania i opisu przyrody, ugruntowany społecznie i historycznie, w którym zmieniają się cele, ewoluują pojęcia, są doskonalone metody czy kryteria poprawności. Wiele ścieżek prowadzi na manowce i wiele odkryć dzieje się jednocześnie. Pięknie pisze o tym Ludwik Fleck książce p.t. "Psychosocjologia poznania naukowego".

W szczególności zmienia się podejście do rozpowszechniania odkryć. Pitagorejczycy traktowali niewymierność pierwiastka kwadratowego z dwóch jako sekret. Galileusz, odkrywszy pierścienie Jowisza, owszem, wysłał listy do konkurentów, ale zaszyfrowane – tak, by nic nie powiedzieć, a zarazem zapewnić sobie pierwszeństwo. Dopiero w XVII wieku sukcesywnie zaczęto publikować w czasopismach naukowych, dochodząc do dzisiejszego "Publish or Perish". Więcej można przeczytać na blogu Michaela Nielsena (np. ten wpis) czy też w jego książce "Reinventing discovery".

No dobrze, ale czy pozostało coś więcej niż naciskać na publikowanie pod groźbą zakończenia żywota (naukowego)? Czy istnieją inne metody współpracy niż listy (teraz upgrade’owane do e-maili)? I czy Internet może się przyczynić do zmiany funkcjonowania nauki?

Po pierwsze i najważniejsze, Internet obniżył koszty dzielenia się informacją. Nie trzeba być pisarzem, dziennikarzem ani wydawcą, by móc się podzielić dowolną informacją ze Światem – na stronie domowej, blogu (np. takim jak ten) czy też forum dyskusyjnym.

W ten sposób wiele kursów czy wykładów dociera nie tylko do wąskiej grupy studentów na danej uczelni, ale – do każdego zainteresowanego.

Jednak w wielu projektach istotna jest interakcja – zwłaszcza, gdy nie tyle chcemy się podzielić gotowym dziełem, co zasięgnąć rady. Np. strona pytań i odpowiedzi Stack Overflow pozwala rozwiązać problemy programistyczne – od tych zadawanych przez nowicjuszy do zaawansowanych. Okazuje się, że identyczny system działa w – Math Overflow to strona Q&A z matematyki na poziomie badawczym. Oprócz doktorantów i "zwykłych" profesorów, udzielają się tam światowe sławy, jak laureaci medalu Fieldsa Tim Gowers czy Terence Tao (zresztą, aktywni na G+ – tam też prowadzą odnośniki). Co kluczowe – nie ma tu znaczenia, czy jest się studentem prestiżowej uczelni, czy samoukiem. Liczy się tu wiedza i umiejętności, nie – tytuł czy afiliacja. Ogólniej, na bazie Stack Overflow wykiełkowały strony skupione wokół społeczności z różnych dziedzin, nie tylko komputerowe – od ogrodnictwa czy fotografii, przez fizykę czy analizę statystyczną, do np. stricte badawczej informatyki (autor notki swego czasu współprowadził Theoretical Physics – Stack Exchange, Q&A z fizyki na poziomie badawczym; niestety, masa krytyczna nie była wystarczająca).

Dobrze, można pytać i odpowiadać na pytania z bardzo wyspecjalizowanych dziedzin, wychodząc poza garstkę znajomych z wydziału czy też konferencji.

Ale można też współpracować. Niektóre problemy przekraczające możliwości intelektualne najlepszych matematyków, można rozwiązać wspólnymi siłami. Np. projekt Polymath polega na rozwiązywaniu otwartych problemów matematycznych przez… komentarze na blogu. W matematyce ciężko wpaść na dobry pomysł, ale dużo prościej ocenić, czy rzeczywiście dany pomysł stanowi krok naprzód w rozwiązaniu problemu. I tym samym np. udało się rozwiązać kilka trudnych problemów matematycznych.

Jeśli nie współpracować to… współzawodniczyć. Okazuje się, że z niektórych problemów można zrobić konkurs. I tak np. Kaggle szczyci się, że z analizy danych (ang. "data science") czyni sport.

Niektóre projekty nie są adresowane tylko do najlepszych z najlepszych – wystarczy być pasjonatem. Tak np. dwóch doktorantów z Cambridge chciało szukać nowych typów galaktyk. Niemniej, mieli za dużo danych by, nawet przy heroicznej pracy, mogli sami "oglądać obrazki". Zaś automatyczna analiza okazała się niewystarczająca (warto pamiętać, że człowiek jest bardzo dobry w analizie obrazu oraz ogólnie ciężko zrobić algorytm, który dobrze się nadaje to wykrywania nietypowych obiektów). Wpadli na pomysł, by pokazać obrazki pasjonatom – stworzyli GalaxyZoo, gdzie każdy może oglądać galatyki, klasyfikować je, i, w przypadku znalezienie czegoś nietypowego, zagadać na forum. Niby proste – a skończyło się wykryciem nowego rodzaju galaktyki.

Inny projekt, Fold.it, polega na grze w zwijanie białek. Znów, wykorzystując naturalne zdolności przestrzenne ludzi (a także naturalną chęć do grania w łamigłówki) szuka się struktury białek – i taka metoda nieraz jest lepsza niż najlepsze rozwiązania numeryczne. Rozwiązania jak powyższe, gdzie pasjonat możne przydać się do poważnej nauki, są czasem nazywane nauką obywatelską (ang. "citizen science"), niekiedy podciąganą pod tzw. "crowdsourcing".

Z różnych innych pomysłów – kiełkują strony do finansowania projektów naukowych – np. Petri Dish, przez publiczną zbiórkę (ang. "crowdfunding"). O ile pewnie tylko niektóre projekty mają na to szanse, to rozwiązanie wydaje się interesujące.

Dzielenie się badaniami nie kończy się na publikacji artykułów. Znów, w sytuacji, gdzie nie trzeba ścinać lasów, by rozprzestrzenić informację (a także, gdzie owa informacja pojawia się błyskawicznie), można się dzielić wykresami (także niewykorzystanymi) oraz negatywnymi wynikami. Jest to o tyle istotne, że nieudane eksperymenty (czy też niewystarczająco fascynujące wyniki) nie są zazwyczaj publikowane. Choćby dlatego, że mogą być za "słabe" na publikacje, lub też – po co marnować czas na pisanie artykułu, który nie będzie wystarczająco pomocny w karierze naukowej, skoro można w tym czasie pracować nad bardziej obiecującymi projektami? Niemniej, w dobie Internetu, łatwo podzielić się owymi kawałkami, co może przydać się innym. Choćby Figshare umożliwia się dzielenie owymi kawałkami. I, co więcej, przyznaje każdemu numer DOI (Digital Object Identifier), a zatem i łatwo zacytować ów kawałek.

Co więcej, i co ważniejsze, można (a zdaniem autora i nie tylko Science Code Manifesto – powinien to być twardy wymóg) dzielić się kodem i surowymi danymi. I zarówno w kwestii weryfikacji (co jest fundamentem działania nauki), i – do dalszego wykorzystania. Jak? Choćby na popularnych stronach do dzielenia się kodem – GitHub [uważana za niektórych za najważniejszą sieć społecznościową) czy też BitBucket (który to daje nieograniczoną liczbę repozytoriów osobom z e-mailami akademickimi). Nie zapominając, że to przede wszystkim systemy kontroli wersji – użyteczne nie tylko do kodu, ale też współpracy przy pisaniu prac naukowych, zwłaszcza w LaTeXu.

Warto też pamiętać, aby publikując prace naukowe z fizyki, matematyki, informatyki czy dziedzin numeryczych, wrzucić preprint na arXiv (czyt. "arkajw") – dzięki temu jest dostępny dla wszystkich i to praktycznie od razu.

Wpis bazowany na Open Science and Science 2.0 z pierwszego Offtopicarium – imprezy dla ludzi z pomysłami: krzyżówka warsztatów, bardzo luźnej konferencji, zlotu pasjonatów, słowem – miejsce dla ludzi, którym "się chce". Autor tego wpisu rozkręca grupę ludzi zainteresowanych rozwijaniem narzędzi do nauki „Hacking Science”.

,,Dzieci sieci” a konstruktywna krytyka

Prowadzę roczne seminarium licencjackie na którym zachęcam studentów do konstruktywnej krytyki referatów kolegów. Nie jest proste taką krytykę dawać i nie jest prosto taką krytykę odbierać. Poćwiczę dziś na przykładzie raportu ,,Dzieci Sieci”.

Do tego wyboru skłoniło mnie przeczytanie wpisu na blogu Emanuela Kulczyckiego ,,Dzieci sieci i krytyka na blogach naukowych”, w którym pisze on o licznej krytyce tego raportu (którego jest współautorem) ale jest zadowolony, że raport jest szeroko dyskutowany.

Ale jak wyglądają te dyskusje? Niestety zdarzają się też takie jak anonimowy komentarz pod ww. wpisem
,,WSTYD publikować TO w sieci promując ten tekst stopniami dr. Wiele osób znajdzie potwierdzenie w słowach nauka zeszła na psy…”
Zdarzają się też inne, dziwne. Np. we wpisie ,,Dzieci sieci ciąg dalszy” znalazłem przedruk komentarza do wpisu ,,rodzice w realu dzieci w sieci”
,,Do statystyk nie należy się po prostu przywiązywać, to znaczy nie należy ich traktować jako wskaźnik reprezentatywności badania.”
Jest to cytat z odpowiedzi koordynatora badania na krytykę. Sam koordynator o raporcie pisze na swoim blogu we wpisie o wile mówiącym tytule ,,Naukowiec jako PRowiec amator”.

Spróbujmy podejść do tematu na poważnie. Reszta wpisu to próba udzielenia konstruktywnej krytyki dotyczącej trzech wybranych aspektów z tego raportu. Może się przydadzą w opracowaniu zapowiadanej wersji 2.0. Może przydadzą się też innym.

Niereprezentatywna próba

W pierwszym rozdziale autorzy badają, czy ,,dzieci sieci” w wieku w przedziale 9-13 lat potrafią rozwiązać zadanie
,,Posługując się internetem jako źródłem informacji, wskaż, kto jest reżyserem i scenarzystą filmu Shrek”.

Okazuje się, że 19 z 30 badanych dzieci potrafi to zadanie poprawnie wykonać.
I tu trafiamy na pierwszy problem, o którym piszą sami autorzy — niereprezentatywna próba.
W różnych komentarzach pojawiała się dyskusja czy próba jest mała czy bardzo mała i czy można używać narzędzi do analizy ilościowej. Ale zabrakło komentarzy dotyczących konsekwencji badania tak małej próby.

A jakie są konsekwencje? Gdybyśmy chcieli odpowiedzieć na pytanie ,,Jaki procent ,,dzieci sieci” potrafi wykonać zadanie wyszukania reżysera Shreka”, to na bazie obserwacji ,,19 pozytywnych na 30 badanych” z 95% pewnością możemy stwierdzić, że ten procent jest w przedziale od 44% do 79% (taki jest przedział ufności dla próby prostej).
Czyli, może mniej niż połowa a może prawie 4/5.
To, jak szeroki jest ten przedział, jasno pokazuje, że dla tak małej próby niewiele można wywnioskować.
A ten przedział wyznaczono przy założeniu próby prostej, odpowiednio wylosowanej. Jeżeli badacze nie wylosowali próby odpowiednio, to błąd pomiaru może być znacznie większy.

Zaskakująco wygląda liczba przebadanych dzieci (30) w porównaniu do liczby autorów badania. Zespół badawczy składał się z 9 badaczy wspomaganych przez 3 konsultantów. Wydaje się więc, że wspólnymi siłami badacze mogli trafić do większej liczby dzieci.

Na przyszłość: należy dołożyć wysiłków by próba była liczniejsza i reprezentatywna.

Dobry wykres jest wart 1000 słów, ale zły…

W całym 177 stronicowym raporcie znaleźć można jeden wykres. Akurat przedstawia on wyniki z zadania o Shreku. W naturalny sposób zwrócił moją uwagę, ponieważ wizualizacja danych bardzo mnie interesuje.

Wykres przedstawia (?) zależność pomiędzy prawidłową odpowiedzią a wiekiem respondenta.
Dużą zagadką dla mnie było, jak odczytać ten wykres.
Jeżeli lubicie zagadki to spróbujcie sami odcyfrować poniższy wykres.

Dane, które ten wykres przedstawia to (najprawdopodobniej, nie jest to wprost napisane) wiek i informacja czy uczeń wykonał poprawnie zadanie dla 30 badanych.

Najprawdopodobniej (to też nie jest wprost napisane) poprawność rozwiązania badania jest kodowana jako 0-1: czy odpowiedział poprawnie czy nie. Z opisu wynika, że prawidłową odpowiedź wskazało 19 osób.

Czy już wiecie jak czytać ten wykres?

Poniżej jest mój domysł, choć jest mało prawdopodobny, trudno mi znaleźć inny.
Wydaje mi się, że na osi OX są kolejne osoby ,,posortowane” po wieku. Pasek morskiego koloru pokazuje wiek danego respondenta. Pasek pomarańczowy jest na wysokości morskiego, jeżeli respondent odpowiedział źle i jest o jedno ,,oczko” wyżej jeżeli odpowiedział dobrze.
Na rysunku jest 19 pozycji w których pomarańczowy jest wyżej niż morski i 11 pozycji w których te paski się przecinają, więc chyba się zgadza.

Pominę komentarze dotyczące skali OY czy braku skali dla paska pomarańczowego, bo tego wykresu nie da się raczej uratować. Nieistotne charakterystyki (numer badanego) zamazują obraz, istotne (odpowiedź na pytanie) nie są przedstawiane w sposób czytelny.

Na przyszłość: Można zrobić histogramy ,,back-to-back” wieku osobno dla osób, które odpowiedziały dobrze i osobno dla takich co odpowiedziały źle, albo tabelkę z liczbami.

Dwie formy tego samego badania powinny być spójne

Do 177 stronicowego raportu dołączono streszczenie w postaci ,,przykuwającego uwagę” mashup’u.
W tym streszczeniu są takie stwierdzenia: ,,Wszystkie treści na stronie głównej Onet.pl ,,dzieci sieci” traktują jako prawdziwe”, ,,Poproszone o wskazanie odnośników do informacji, które mogłyby być nieprawdziwe, zmyślone lub zafałszowane, nie tylko były wstanie wykonać zadania ale często go nie rozumiały”.

Można z tych komentarzy przypuszczać, że wszystkie z 30 przebadanych dzieci mają wskazany problem.

Tymczasem w raporcie (strona 27) jest napisane
,,Zadanie sprawiło naszym rozmówcom trudności. Spośród 30 respondentów, 9 – głównie tych najmłodszych –
miało problemy ze zrozumieniem zadania i nie było w stanie go wykonać lub stwierdziło, że na stronie nie ma takich informacji … Tylko 7 dzieci wskazało konkretne artykuły, uzasadniając (nie zawsze trafnie), co budzi ich wątpliwości”

Czyli większość z przebadanych dzieci (21) jakieś treści wskazało jako budzące wątpliwości 7 z nich wskazało konkretne artykuły.

Na przyszłość: W streszczeniu najlepiej cytować wypowiedzi z pełnego raportu, łatwiej będzie zachować spójność.

In vitro a krytyczne myślenie

Tutaj był wpis dotyczący różnych opinii i źródeł badających czy występuje wyższa zachorowalność na nowotwory po IVF.
W internecie można znaleźć przykłady prac wykazujących podwyższoną zachorowalność (z różnych przyczyn) i przykłady prac wykazujących brak zwiększonego ryzyka zachorowalności. Prace te dotyczą różnych populacji, różnych technik IVF i różnych schorzeń przez co trudno je porównywać.

Tekst nie był ani za ani przeciw ‚in vitro’. Nawet gdyby okazało się, że większe ryzyko istnieje to można podać przykłady uzasadniające podjęcie tego ryzyka, decyzja zawsze należy do rodziców.
Pytanie, które mnie interesowało to czy ewentualna długoterminowa szkodliwość jest badana, a jeżeli jest i jeżeli występuje, to czy potencjalne ryzyko jest komunikowane parom zainteresowanym IVF. Dostępność informacji o efektach ubocznych terapii dotyczy tak samo in vitro jak i wielu innych terapii. Dużo o ,,złych praktykach” w tym temacie przeczytać można na blogu Bad Science.

Niestety zamiast chłodnej dyskusji, w ramach której zbierane byłyby argumenty za i przeciw, pojawiły się bardzo gorące komentarze.
Przyjmuję, że część winy w tym leży w braku moich umiejętności prowadzenia w Internecie wyważonych debat.
Gdy się nauczę jak to robić to do tego i innych kontrowersyjnych tematów wrócimy.

NCN, ankieta i problemy

Narodowe Centrum Nauki udostępniło wyniki badania ankietowego wnioskodawców pierwszych konkursów NCN z 2011 r.
OPUS 1, PRELUDIUM 1, SONATA 1, HARMONIA 1 (link do prezentacji).

Jest w tej prezentacji kilka ciekawych wyników, jest też jeden ciekawy błąd/usterka. Dzisiaj więc będzie wpis na temat zgubnego wpływu używania odchylenia standardowego dla zmiennych nominalnych. Swoją drogą NCN na swoich stronach umieszcza wiele zestawień minionych konkursów. Np pod tym linkiem znajdują się ciekawe informacje o tym kim są kierownicy zwycięskich projektów.

Czytaj dalej NCN, ankieta i problemy

Doktoranci … ciąg dalszy

W komentarzach do wczorajszego wpisu Michał B. zadał pytanie: jaka część kończących studia zostaje na doktoracie i jak ten współczynnik zmienia się w czasie?
Taki współczynnik trudno ocenić, niektórzy robią sobie roczną przerwę, niektórzy po roku studiów doktoranckich rezygnują, dlatego niżej pokażę wyniki dla zbliżonego współczynnik, który łatwo policzyć, mianowicie iloraz liczby doktorantów do liczby studentów pierwszego lub drugiego stopnia (ISCED6 / ISCED5).
Mnie, wyniki zaskoczyły.

Czytaj dalej Doktoranci … ciąg dalszy

Doktoranci, kim oni są, ilu ich jest i nad czym pracują?

AFAIK ObywateleNauki.pl planują w najbliższym czasie debatę nt. statusu doktoranta. Pomyślałem sobie, że pomocne przy tej debacie może być zobaczenie ilu tych doktorantów w Polsce jest, czy szybko ich przybywa, w jakich dziedzinach pracują i jak wyglądamy pod względem liczby i struktury doktorantów na tle innych krajów.

Czytaj dalej Doktoranci, kim oni są, ilu ich jest i nad czym pracują?

Wydatki na badania i rozwój w Polsce jako procent PKB, czyli test na spostrzegawczość lub wtorkowy czarny humor

Kilka dni temu na stronach Obywateli nauki pojawił się wpis traktujący o poziomie finansowania nauki w Polsce wraz z propozycjami zmiany, czyli zwiększenia nakładów na naukę. Co prawda nie uważam by samo podniesienie wydatków na naukę było rozwiązaniem. Ważna a może nawet ważniejsza jest wizja w które działy nauki inwestować. Obu stronom (i inwestującym obywatelom i dofinansowywanym naukowcom) żyłoby się lepiej z taką wizją.

Ale zamiast pisać o wizjach dzisiaj napiszę o czymś uchwytnym, czyli o tym jak wielkość wydatków na badania i rozwój (research and development, w skrócie R&D) planowanych w Polsce wygląda na tle krajów rozwiniętych. I również na co w Polsce są wydawane pieniądze na naukę.

Czytaj dalej Wydatki na badania i rozwój w Polsce jako procent PKB, czyli test na spostrzegawczość lub wtorkowy czarny humor