W dniach 17-18 kwietnia 2012 Centrum Innowacji, Transferu Technologii i Rozwoju Uniwersytetu (UJ) zorganizowało konferencję naukową Nauka 2.0: więcej niż Internet, w której miałem przyjemność uczestniczyć w charakterze prelegenta (zob. film poniżej).
Zorganizowanie takiego przedsięwzięcia wskazuje, że Polska akademia nareszcie zaczyna dostrzegać i próbuje zrozumieć swoją rolę w społeczeństwie ery web 2.0.
Już pierwsze wystąpienie dr Dominika Batorskiego wprowadziło uczestników w kwestie otwartych licencji w nauce, nowych sposobów publikacji naukowych i dostępu do wiedzy, scharakteryzowało coraz bardziej palącą konieczność szerszego otworzenia się polskich uczelni na społeczeństwo m.in. przez nowe sposoby dystrybucji treści naukowych.
Kolejne wystąpienie prof. Andrzeja Radomskiego (UMCS) skupiło się również na ukazaniu praktycznych sposobów i pomysłów na dzielenia się wiedzą w “chmurze” za pomocą darmowych i dostępnych wszystkim narzędzi i aplikacji. Nie zabrakło w nim jednak wielu słów krytyki wymierzonej w dotychczasowy system uprawiania wiedzy na uczelniach, który przez swoją skostniałość, bariery instytucjonalne i administracyjno-prawne sprawia, że nauka polska ma coraz mniejsze znaczenie dla społeczeństwa. Wątek ten pojawił się również w późniejszych wystąpieniach. Podjął go między innymi dr Paweł Szczęsny stwierdzając wprost, że współcześnie nauka ucieka z uniwersytetów, a najbardziej doniosłe wynalazki powstają w instytucjach prywatnych. Podobnie w tej kwestii wypowiedziała się mgr Grażyna Giersztyn (UMCS) w swoim wystąpieniu pokazując, że taki problem dotyczy również nauk humanistycznych, gdyż wiele wartościowych i użytecznych przedsięwzięć w tej dziedzinie powstaje współcześnie w medialabach i hakerspejsach. Dr Paweł Szczęsny stwierdził również, że nauka uprawiana na akademii w obecnej postaci coraz mocniej rozmija się z potrzebami i oczekiwaniami społecznymi.
Nowe pomysły na funkcjonowania nauki wskazywał również Sidey Myoo (prof. Michał Ostrowicki UJ), który od lat tworzy projekt “Academia Electronica” w wirtualnym świecie “Second Life” oraz Sylwester Nowak (nauka2.0solution). Ostatnie wystąpienie zwróciło uwagę na nieadekwatność dotychczasowych systemów paramteryzacji działalności naukowej, nie przystających do współczesnych czasów i w ogóle nie mierzących wpływu naukowca na społeczeństwo i kulturę. Nowe formy oparte na aplikacjach analizujących aktywność naukową danego naukowca w sieci (blogosfera, portale społecznościowe itp.) pozwalają pełniej oddać znaczenie działalności naukowej wskazując również na znaczenie społecznej recepcji i użyteczności nauki. Ciekawą inicjatywą scharakteryzowaną przez prelegenta był pomysł dr Emanuela Kulczyckiego, który swoją książkę udostępnił na platformach społecznościowych na licencjach otwartych uzyskując w ciągu miesiąca 1517 pobrań swojej pracy. Wynik ten pokazuje jak otwarte licencje i dystrybucja wiedzy nowymi kanałami zwiększa również oddziaływanie społeczne idei i pomysłów rozpowszechnianych przez autora. Według Sylwestra Nowaka mierzenie również popularności treści naukowych w sieci pozwala na pełniejsze ukazanie znaczenia i wartości danego naukowca dla społeczeństwa.
Na coraz większą rolę social media w życiu naukowym wskazała również dr Anna Nacher (UJ). Sieć daje możliwość nie tylko poszerzenia dyskusji akademickiej i dopuszczenia do szerszej debaty ludzi z poza akademii np. z użyciem Twittera i Facebooka. Pozwala również na pokazanie bardziej ludzkiego charakteru naukowca jako człowieka z krwi i kości. Słuchając wystąpienia dr Nacher odniosłem wrażenie, że współczesny naukowiec sam staje się swego rodzaju siecią lub inicjatorem sieci relacji, które jak słusznie zauważyła prelegentka zaczynają funkcjonować niejako samoistnie, niezależnie od obecności lub nie obecności konkretnego podmiotu.
Ciekawe wątki pojawiły się w dyskusji kończącej drugi panel konferencji w którym wzięli udział: Robert Firmhofer (Centrum Nauki Kopernik), prof. Lech Mankiewicz, dr Ilona Tańska, dr Anna Nacher i Piotr Żabicki. Zainteresowała mnie szczególnie dyskusja na temat Centrum Nauki Kopernik. Pojawiło się w niej bowiem pytanie o sensowność takich przedsięwzięć, które mimo wielkiej pompy i innowacyjnych prezentacji pozostają jednak w tradycyjnym modelu przekazu wiedzy. Moim zdaniem lepszy efekt dla tworzenia i rozpowszechniania nauki, zamiast tak kosztownych inwestycji przyniosłaby sieć dobrze wyposażonych medialabów rozlokowanych na terenie całego kraju, w których tworzyłoby się konkretne rozwiązania, a użytkownicy nie tylko bawiliby się eksponatami, ale mieliby również możliwość realizacji swoich pomysłów. Mówiąc inaczej zamiast kolejnej katedry bardziej przemawia do mnie rozproszony bazar, którego skuteczność udowodniła era mediów 2.0.
W dyskusji tej pojawiła się również kwestia wykorzystania symulacji komputerowych i wirtualnych środowisk w nauce. Wbrew opinii, która pojawiła się w trakcie debaty uważam, że nie tylko realne środowisko ma moc angażowania uwagi i rozbudzania wyobraźni, czy zainteresowania nauką. Jeden z dyskutantów przywołał argument, że dobrze zorganizowana instytucja, która tworzy ciekawe wystawy i pozwala na żywo obcować z wiedzą w dużo większym stopniu angażuje odbiorcę, zapewnia poczucie sprawczości i rozbudza wyobraźnie. Oczywiście nie neguję tego stwierdzenia. Niemniej jednak zauważyć należy, że współcześnie coraz więcej ludzi ogromną ilość czasu spędzają w właśnie w wirtualnych środowiskach 3D takich jak chociażby gry komputerowe. Jest to trend coraz częściej wykorzystywany przez nauczycieli i naukowców na całym świecie pod takimi nazwami jak Digital Games Based Learning czy gamification. Niektórzy badacze i projektanci gier jak Jane McGonigal widzą tu ogromny i niedoceniony potencjał, który można wykorzystać tworząc gry do celów społecznych, kulturowych i naukowych. Poza faktem immersyjności i atrakcyjności wirtualnych środowisk, mają one również tę przewagę, że pozwalają symulować środowiska i procesy nie możliwe do odtworzenia w przeciętnym laboratorium. Jakiś czas temu moi przyjaciele z Uniwersyteckiego centrum Zdalnego Nauczania i Kursów Otwartych UMCS zrealizowali lekcję chemii w oparciu o wirtualne środowisko 3D, w którym uczniowie mogli obsługiwać elektrownię atomową. Takich doświadczeń nie da się zrealizować w zwykłym nawet dobrze wyposażonym laboratorium. Nie zgodzę się również z tym, że symulacja pozbawia odbiorcę sprawczości. Należy bowiem pamiętać, że wirtualne światy m.in. dlatego są atrakcyjne bo oferują użytkownikom możliwość aktywnej partycypacji i interakcji.
Drugiego dnia konferencji wystąpili m.in.: dr Sławomir Zagórski (Gazeta wyborcza), dr Paweł Szczęsny (UW), dr Jan Krzysztof Frąckowiak (Biura Promocji Nauki “PolSCA”), prof. Paweł Węgrzyn (EAG). Zaprezentowany został również system “Synat”. Moją uwagę przykuły (oprócz wspominanego już dr Szczęsnego) wystąpienie dr Sławomira Zagórskiego (Gazeta Wyborcza) oraz prof. Pawła Węgrzyna. Wystąpienie Zagórskiego dotyczyło głównie roli tradycyjnych mediów we współczesnym systemie obiegu treści. Miało ono nieco nostalgiczny charakter, ale poruszyło kilka istotnych moim zdaniem kwestii. Jedną z nich jest między innymi problem jakości i rzetelności przekazywanych treści, szczególnie jeżeli chodzi o dłuższe formy dziennikarskie. Przy obecnym tempie publikacji treści zaczynają dominować, krótkie i szybko pisane newsy zamiast głębokich analiz. Zjawisko to szczególnie dotyka takich form dziennikarskich, które wymagają wielu dni, a nawet miesięcy drobiazgowej pracy (m.in. dziennikarstwo śledcze czy relacje i reportaże z dalekich krajów, reportaże wojenne itp.). Na tego typu formy zaczyna obecnie brakować zarówno czasu jak i pieniędzy (problem ten jakiś czas temu podnosił również na swoim blogu Edwin Bendyk). W późniejszej dyskusji nad tą kwestią pojawiło się konstatacja, że Internet jest medium, które zalewa nas coraz większą ilością niezweryfikowanych i błędnych treści naukowych. Moim zdaniem jednak fakt ten nie wynika z samego Internetu jako takiego, a pokazuje słabość polskiego Internetu i małe zaangażowanie polskich naukowców w sieć. Współcześnie bowiem dzięki narzędziom typu wiki nie jesteśmy skazani na dyktat błędów. Wystarczy, aby naukowcy korygowali błędy które są w sieci, wówczas jakość medium i krążących w nim treści na pewno się poprawi. Nie należy powtarzać lamentu, że zamieszczane w Wikipedii hasło jest błędne, ale po prostu je poprawić.
Wyjątkowo inspirujące było również wystąpienie prof. Pawła Węgrzyna (EAG). Szczególnie ciekawy moim zdaniem był tu wypracowany w ramach Europejskiej Akademii Gier model współpracy pomiędzy biznesem i uczelniami. W EAG udało się nie tylko stworzyć ciekawą inicjatywę, która skutecznie zasila pomysłami i kreatywnością Polską, a nawet światową branżę gier komputerowych (studenci EAG stworzyli grę, która przez wiele miesięcy była na drugim miejscu pod względem popularności w Apple Store!), ale również wypracować niespotykany w naszym kraju model współpracy nauk humanistycznych i ścisłych. Istotną bowiem rolę w całym projekcie odgrywają kulturoznawcy, którzy uczą przyszłych projektantów gier istotnych kompetencji komunikacyjnych i teoretycznych. Taki mariaż jak zauważył prelegent jest dziś nieodzowny. Branża gier przeszła bowiem podobną ewolucję do kina. Na początku w przemyśle filmowym najważniejszy był kamerzysta, który obsługiwał skomplikowaną technologię, ale kiedy medium i branża rozwinęły się umiejętności techniczne zeszły na dalszy plan, a na czoło wysunęli się reżyserzy, scenarzyści, aktorzy. To ich nazwiska dziś zapamiętujemy po obejrzeniu interesującego filmu. Na podobnym etapie jest obecnie branża gier komputerowych. Kompetencje informatyczne schodzą na drugi plan, a na czoło wysuwają się pomysły i idee. Dlatego też refleksja kulturoznawcza dostarcza bogatego zaplecza humanistycznego, stanowi rezerwuar inspiracji.
Niestety patrząc na polski uniwersytet współpraca nauk humanistycznych i ścisłych wciąż jest rzadkością. Środowiska uczonych zajmujących się naukami ścisłymi i przyrodniczymi funkcjonują równolegle do nauk humanistycznych i w praktyce ze sobą nie współpracują, a szkoda. Przykład EAG i innych licznych inicjatyw światowych (MIT Medialab, Kitchen Budapest, Software Studies) pokazują, że utrzymywanie podziałów rodem z XIX wieku nie ma dziś racji bytu i staje się przeszkodą dla rozwoju. W Polsce stan ten dodatkowo utrudnia reforma szkolnictwa wyższego, która zamiast tworzyć płaszczyznę porozumienia miedzy humanistyką i naukami ścisłymi utrzymuje te sztuczne podziały m.in. po przez stypendia i dużo wyższe dotacje dla tych ostatnich. Wciąż brakuje pomysłu na wypracowanie drogi środka, która jak pokazuje EAG przynosi również wymierne korzyści.
Na zakończenie chciałbym pochwalić profesjonalną organizację konferencji. CITTRU pod tym względem naprawdę stanęło na wysokości zadania przygotowując ciekawe materiały, przejrzystą informację jak również obsługę prelegentów i gości. Konferencja była również na bieżąco komentowana na Facbook i Twitterze.
Mam nadzieję, że zapoczątkowana na konferencji debata na temat znaczenia nauki 2.0 będzie dalej się rozwijać na kolejnych konferencjach, a z czasem zaowocuje konkretnymi rozwiązaniami wdrażanymi na polskich uczelniach.
- Zachęcam do zapoznania się również z relacją z konferencji autorstwa Marcina Wilkowskiego zamieszczoną na portalu “Historia i Media” oraz refleksjami po konferencyjnymi zamieszczonymi na blogu dr Anny Nacher