Mając w pamięci poprzednią książkę Nassima Taleba, czyli sławną ,,Black Swan” moje oczekiwania w stosunku do jego kolejnej książki ,,Antykruchości” były bardzo wysokie. Jakie są więc wrażenia z lektury tej pozycji?
Początek jest świetny. Autor zręcznie wyjaśnia czym jest tytułowa antykruchość. A czym jest? Oczywiście przeciwieństwem kruchości, ale jednocześnie jest przeciwieństwem którego się nie spodziewamy. Dla większości osób przeciwieństwem kruchości jest odporność. Przyzwyczajeni jesteśmy do myślenia w granicach odporność – kruchość i nie widzimy, że jest coś poza tymi granicami. Jeżeli kruchość oznacza, że duże zmiany pogarszaj/psują, to antykruchość oznacza, że duże zmiany poprawiają/usprawniają system. W statystyce odpowiedzią na wrażliwe i niestabilne estymatory są estymatory odporne. Ale teraz można zapytać się, czy istnieją estymatory antykruche? Którym skrajne obserwacje jedynie służą? Czy można i co można zrobić, by nasze wnioskowanie było antykruche? Pod względem poszerzania perspektywy początek jest świetny.
Środek jest niezły. Autor na ilustracjach wykazuje potencjalne źródła kruchości, takie jak wielkość i złożoność systemów. Punktuje zachłyśnięcie się złożonymi modelami predykcyjnymi, za którymi nie idzie żadna odpowiedzialność w przypadku błędnych predykcji. Pokazuje jak często stosowane miary jakości predykcji są błędne, a same systemy predykcyjne nie tylko niczego nie przewidują, ale mogą być wręcz szkodliwe tworząc złudzenie kontroli niepewności. Im bardziej złożone, tym bardziej niezrozumiałe i kruche.
Na poletku analizy danych ta diagnoza jest wyjątkowo trafna. Coraz więcej osób buduje złożone modele, wierząc że dzięki złożoności będą mogli lepiej przewidzieć pewne zjawiska. Jednocześnie nie zadając sobie pytań o znaczenie i podstawy losowości. Niewiele z osób, dumnie nazywających się ,,data scientist” czy podobnie (w tym worku są też statystycy, machine learningowcy i ci co uważają, że to narzędzia rozwiązują problemy), zastanawia się nad własnościami wartości p, konsekwencjami aksjomatów Kołmogorowa i ich przystawaniem do rzeczywistości. Nie jest źle, jeżeli złożoność modelu bierze się z naszej (nie)wiedzy o rzeczywistości, ale gorzej jeżeli jest zasłoną dymną.
W analizie danych brakuje odpowiednika Bertranda Russella (dopiero niedawno przeczytałem Logikomiks, o którym pewnie też niedługo napiszę, ale już teraz polecam), który pomógłby opanować chaos w podejściu do analiz. Wielu badaczy zachłyśniętych regularyzacją, randomizacją, boostingiem zapomina o tym, że najczęściej dane nie pochodzą z symulacji i że używanie metody X tylko dlatego, że kolega ją lubi lub myśli, że ją rozumie, może nie być wystarczającym uzasadnieniem. Czy żyjemy na rosnącej bańce pompowanej przez szarlatanów? Z drugiej strony, cyrulicy z czasem przekształcili się w chirurgów.
Końcówka słaba. Aby nie było zbyt słodko, dodam że nie wszystko w książce Taleba mi się podoba. Wręcz wiele rzeczy mi się nie podoba. Autor niepotrzebnie, moim zdaniem, wplata w książkę wątki dotyczące etyki czy swojego światopoglądu. Nie chodzi nawet o to czy się z autorem zgadzam czy nie, ale o to, że książka przez to traci na precyzji. Są kontrowersyjne poglądy (np. że silna chemioterapia w przypadku niektórych nowotworów czyni więcej zła niż dobrego i nie wszystko co nie jest bardzo groźne warto leczyć), które moim zdaniem powinny albo iść w parze z konkretnymi dowodami albo się nie pojawiać. A nie żerować w sferze uogólnień i opinii. Miejscowe braki dowodów są spójne z tokiem rozumowania autora, a mianowicie, stwierdzeniem, że to twórcy terapii powinni dowodzić, że jest ona korzystna biorąc pod uwagę wszelkie, też długoterminowe, wyniki. Autor przyjmuje, że wszelkie interwencje są domyślnie niekorzystne o ile nie udowodni się, że jest inaczej.
Zdaniem Taleba czytamy książki, które są choć w części zgodne z naszymi poglądami. Co w książce Tabela spodobało mi się na tyle, że przeczytałem całość? Prawdopodobnie pochwała różnorodności, dzięki której złożone systemy mogą osiągnąć tytułową antykruchość.