Dzisiaj (23 lutego) w trzydziestu ośmiu krajach odbywały się hakatony, których tematyka związana była z otwartymi danymi (więcej informacji tutaj) [nawet nie będę starał się szukać tłumaczenia dla słowa hakaton, purystów proszę o wybaczenie].
W Polsce zorganizowane były dwa tego typu spotkania, w Warszawie i w Katowicach. Ja trafiłem na warszawski hakaton organizowany między innymi przez Łukasza Jachowicza z Centrum Cyfrowe Projekt Polska (opis tutaj).
Z różnych powodów mogłem być tylko na połowie tego spotkania, zamiast więc włączyć się do prac innego zespołu zabrałem ze sobą własne niedokończone projekty i spokojnie sobie nad nimi pracowałem.
Atmosfera była niesamowita, około pięćdziesięciu osób intensywnie pracujących nad różnymi projektami, wokół dyskusje nad wyższością Flasku nad Railsami, lub komentarze o wadach i zaletach innych projektów związanych z otwartymi danymi.
W takiej atmosferze nawet pracując nad wariantami splicingowymi genów, czyli czymś zupełnie niezwiązanym z hakowaniem otwartych danych, efektywność pracy rośnie kilkukrotnie.
Realizowane były różne projekty, np. adaptacja na polskie warunki serwisu Poliwoops (zobacz tutaj), śledzącego jakie tweety politycy napisali a później skasowali, zbieranie danych o komunikacji miejskiej, oceny czasów przejazdu pomiędzy dwoma punktami w mieście, aplikacje wokół danych z otwartych zabytków itp. Listę pozostałych można znaleźć na stronie hakatonu.
Spotkanie przyciągnęło wielu programistów, grafików i projektantów, zabrakło jednak (mnie) osób zajmujących się analizą danych. Stąd też znaczne przesunięcie akcentu na zbieranie danych przez parsowanie stron czy budowanie interfaceów pozwalających na łatwy dostęp do danych, ale mniejszy nacisk na wyciąganie z danych przetworzonych informacji. Przykładowo najbliżej mnie siedział zespół pracujący nad API dostępu do informacji o tym, kto i kiedy był ministrem w rządzie. Interesujące dane, które mogą być źródłem ciekawych zestawień. Niestety moje dociekania, czy będzie można się do tych danych dostać na zasadzie otwartej licencji, kiedy z ty danych będzie można skorzystać, i próby opisania jakie to interesujące statystyki na takich danych można zrobić, zderzyły się z odpowiedzią, że zespół interesuje zrobienie API, to jak z tych danych będzie można korzystać to się ustali później.
Podsumowując, dla programistów, projektantów i grafików fantastyczne spotkanie. Dla statystyków może mniej. Ja jednak bardzo się cieszę, że tam byłem. W takiej atmosferze chciałbym pracować każdego dnia.
Cześć,
uzupełnienie dotyczące „bazy rządowej”: będzie API oraz baza danych, i każdy będzie mógł korzystać z tam zebranych danych w dowolnym celu.
Dzięki za wizytę! Mam nadzieję, że kolejnym razem uda nam się wciągnąć Cię w skład organizatorów i opowiesz w sposób popularny o tym, jak analizować dane, żeby nie wychodziły głupoty 🙂
Łukasz
Szczerze mówiąc, nie wiem jak analizować dane dobrze. To trudny temat i nie jestem pewien, czy ktokolwiek wie jak to robić. Zawsze jest jeszcze coś do sprawdzenia.
Ale mam trochę przykładów jak nie analizować danych. Akurat jak coś jest źle zrobione to często łatwo to zauważyć. I o tym mogę opowiedzieć.
Następnym razem postaram się być cały dzień i aktywniej włączyć się w spotkanie.