Trzeciego dnia konferencji zaplanowano 7 wydarzeń: 4th International Workshop on Artificial Intelligence in Medical Applications (AIMA'14), 1st Complex Events and Information Modelling (CEIM'14), 3rd International Conference on Wireless Sensor Networks (WSN'14), 12th Conference on Advanced Information Technologies for Management (AITM'14), Application of Innovative Teaching Methods in Embedded Engineering (E2LP'14), 3rd International Symposium on Frontiers in Network Applications, Network Systems and Web Services (SoFAST'14), 4th Joint Agent-oriented Workshops in Synergy (JAWS'14). Podobnie jak drugiego dnia liczba uczestników zbliżyła się do 300. Na ten dzień zaplanowano również wykłady dwóch zaproszonych prelegentów, a na koniec - uroczysty bankiet w Pałacu Kultury i Nauki.

Edukacja w czasach big data

Pierwszym z zaproszonych prelegentów, którzy mieli wystąpić trzeciego dnia konferencji, był prof. Irwin King z The Chinese University of Hong Kong. Przedstawił on historię nauczania zdalnego (e-learningu), a następnie zaprezentował aktualne trendy w edukacji. Jego zdaniem można wyróżnić trzy zasadnicze kierunki:

  • Efektywność kosztowa,
  • Współpraca,
  • Indywidualizacja.

Ciekawym trendem jest tzw. microlearning. Jest to nauka za pomocą bardzo małych porcji materiału, zwykle przybierających postać kilkuminutowych klipów wideo. Po zapoznaniu się z tak zaprezentowanym materiałem (zwykle teoretycznym) uczeń przystępuje do samodzielnego wykonywania kolejnych zadań, utrwalających zdobytą wiedzę, a także ilustrujących sposób jej zastosowania w praktyce.

Platforma wymiany wiedzy i edukacji

Jako przykład prac nad nowym modelem nauczania referujący zaprezentował projekt KEEP. Jest to zintegrowany system nauczania, skupiający w sobie bazę treści, nauczycieli, uczniów, programy kursów, pełną historię nauki uczniów oraz zestaw narzędzi analitycznych. Zgodnie z założeniami projektu system ma dostarczać informacji o poszczególnych kursach, by zwiększyć możliwości indywidualizacji nauczania.

Rozmowa o IT w edukacji z prof. Irwinem Kingiem

Tomasz Klasa (TK): Kto dostarcza treści na potrzeby projektu KEEP? Czy jest przewidziana ich weryfikacja?
Irwin King (IK): Sami autorzy. Oczywiście, weryfikacja treści jest konieczna, ale w pierwszej fazie projektu nie będzie prowadzona. System będzie jak Youtube, gdzie każdy zarejestrowany nauczyciel będzie mógł umieścić na swoim koncie własne treści. W kolejnym kroku, gdy oferta systemu będzie już wystarczająco bogata, uruchomimy proces opiniowania zawartości. Zakładamy, że negatywnie oceniane treści w sposób naturalny będą usuwane z systemu przez samych autorów, albo wypierane z użycia.
TK: W trakcie prezentacji słyszałem, że dedykowane roboty mają analizować treść stron domowych nauczycieli i pobierać z nich m.in. ogłoszenia. Czy są przewidziane mechanizmy pozwalające na określenie, czy znaleziona zawartość pochodzi z oryginalnej strony, czy może z podstawionej fałszywej kopii?
IK: Tak, myślimy o kontroli grupowej. Jeśli kilka osób potwierdzi, że zawartość jest wiarygodna, możemy uznać, że tak jest. I odwrotnie. Jest to proste i powinno być wystarczająco skuteczne.
TK: Co kryje się pod pojęciem personalizacji nauczania - czy możliwość wyboru ścieżki spośród wielu dostępnych, czy może samodzielnego budowania ścieżki z dostępnych pojedynczych kursów?
IK: Budowanie własnej ścieżki. Chodzi o to, by każdy mógł wybrać to, co go interesuje i na czym mu zależy.
TK: W takim razie czy swoboda wyboru jest pełna, czy ograniczona przez ścieżkę zdefiniowaną wcześniej dokonanymi wyborami? Co zrobić, by uczeń nie wybrał samych lekkich przedmiotów, zupełnie ze sobą nie powiązanych i nietworzących żadnej sensownej ścieżki rozwoju, ale mimo to uzyskując komplet zaliczeń, otrzymał dyplom? Inaczej traktować przedmioty zgodne ze ścieżką, a inaczej te z nią niezwiązane?
IK: Zachowujemy znaczną swobodę, ale chcemy doradzać, wskazywać które kursy lub zagadnienia są powiązane z dotychczas ukończonymi. Co więcej, nauczyciel wcale nie musi definiować kursu, by umożliwić indywidualizację nauczania. Wystarczy, ze zindywidualizuje kryteria zaliczenia, określając które porcje materiału z innych kursów będą potrzebne, by uzyskać zaliczenie. O tym nie było mowy w trakcie prezentacji, ale tak naprawdę w tym miejscu z pomocą przychodzą możliwości big data. Nauczyciel jest wstanie zobaczyć w jakim stopniu uczeń zapoznał się z poszczególnymi treściami, ile czasu na to poświęcił, jakie osiągnął rezultaty. To jest ogrom danych, które po przetworzeniu nie tylko ułatwiają podjęcie decyzji, czy uczeń powinien otrzymać zaliczenie, ale też pozwalają dobrać kolejne zadania zgodnie z możliwościami danego ucznia.

Crowd computing, fog computing

Crowd computing, fog computing - nowe wcielenia chmury

Drugim zaproszonym wykładowcą był prof. Ivan Stojmenovic z Deakin University w Australii (w czasie urlopu na University of Ottawa w Kanadzie). Zaprezentował on koncepcję przetwarzania w trybie "fog computing" oraz "crowd computing". Rosnąca popularność elektroniki podręcznej, a nawet ubieralnej sprawiają, że otwierają się nowe możliwości w zakresie przetwarzania rozproszonego. Ponieważ obecne telefony i nowo prezentowane zegarki mają moc obliczeniową większą niż komputery osobiste jeszcze 10-15 lat temu, a do tego są zwykle stale połączone z siecią, można próbować wykorzystać ich potencjał do zbudowania zupełnie nowej jakości usług.

Pierwszym polem zastosowania tego typu urządzeń jest ?crowd computing", czyli przetwarzanie przez dużą grupę komunikujących się jednostek. Informacje o natężeniu ruchu drogowego czy lokalizacji dobrych restauracji, wcale nie muszą pochodzić z centralnego repozytorium danych. Pozwalając poszczególnym urządzeniom na bezpośrednie komunikowanie się z innymi w okolicy można stworzyć system komunikacji podobny do wymiany plotek. Samochód, który napotyka lub mija korek, przekazuje informację kolejnym (w tym pojazdom nadjeżdżającym z naprzeciwka), a te propagują informację dalej. W rezultacie wieść o korku rozprzestrzenia się, a nawigacje samochodowe mogą uwzględnić ją i zmodyfikować trasę przejazdu, by ominąć zator drogowy. Podobnie rzecz się ma w przypadku poszukiwania punktów topograficznych w okolicy (np. sklep, restauracja). Zamiast na centralnej bazie można oprzeć się na informacjach pochodzących od urządzeń raportujących, jakie obiekty są w ich okolicy. Zaletą takiego podejścia jest znaczna decentralizacja - nie ma potrzeby utrzymywania dużych baz danych z lokalizacją wszystkich punktów i obiektów. Całość sprowadza się do zapewnienia komunikacji i lokalnych źródeł danych. Oczywiście, ponieważ urządzenia osobiste mają mimo wszystko ograniczoną moc, a do tego ograniczone zasoby energii, bardziej złożone obliczenia mogą wymagać przeniesienia do chmury ogólnej.

Nieco inny kierunek prezentuje 'fog computing'. Można powiedzieć, że jest to chmura, która dotyka ziemi. Pomysł polega na tym, by oprócz centralnej chmury o zasięgu ogólnym stworzyć lokalną chmurę na własny użytek. Jej zasięg może być ograniczony do mieszkania, biura lub całej organizacji. Urządzenia w jej zasięgu współpracują, współdzieląc dane i obliczenia. W rezultacie powstaje nowa warstwa logiczna między użytkownikiem, a chmurą globalną. Np. retuszując zdjęcie, czy szukając wirusa na dysku rozkładamy obliczenia między wszystkie dostępne własne urządzenia mikroprocesorowe. Kluczowe jest właśnie słowo własne - mimo, że używamy chmury, wszystko odbywa się nadal z wykorzystaniem własnych zasobów. Upublicznienie przez przeniesienie do chmury ogólnej jest w tym przypadku kolejnym krokiem, zupełnie niezależnym od poprzedniego. Podobnie jak w przypadku obliczeń "crowd", jeśli wykonanie danego zadania przekracza możliwości urządzeń tworzących warstwę mgły, może zajść konieczność zlecenia go warstwie wyższej, a więc ogólnej chmurze.

Rozmowa o crowd i fog computing z prof. Ivanem Stojmenovicem

Tomasz Klasa (TK): Gdy moc obliczeniowa w trybie 'crowd' albo 'fog' okazuje się niewystarczająca i delegujemy obliczenia do chmury ogólnej, czy to nie jest praktycznie równoznaczne z powrotem do pierwotnej koncepcji chmury?
Ivan Stojmenovic (IS): Tak, tak to wygląda. W przypadku zbyt trudnych zadań wracamy do pierwotnego modelu.
TK: Czy crowd computing jest bezpieczne? Co jeśli jedno z urządzeń zostanie przejęte lub zmodyfikowane w taki sposób, że nie będzie już pod wyłączną kontrolą właściciela? Czy są przewidziane mechanizmy zabezpieczające?
IS: Faktycznie, jest to istotny problem. Przede wszystkim, na co zwrócono już uwagę w czasie prowadzonych badań, urządzenia wykorzystywane w 'crowd computing' nie należą do właściciela samej sieci. Są to prywatne lub służbowe urządzenia użytkowników, a co najmniej część danych jest przechowywana jedynie lokalnie na tych urządzeniach. W rezultacie problemem jest zapewnienie pełnego zaufania, gdy w każdej chwili właściciel urządzenia może uruchomić na nim dowolny, w tym szkodliwy, program albo uniemożliwić dostęp do danych wymaganych dla pracy systemu.
TK: Rozumiem. Widzę więc praktyczny przykład obrazujący to zagrożenie. Omawiał Pan w trakcie wykładu system ostrzegania przed utrudnieniami na drodze takimi jak korek, wypadek. Faktycznie, system się sprawdzi, gdy przejazd jest utrudniony, więc odczyt prędkości pojazdów się zmieni. Co jeśli do wypadku dojdzie w taki sposób, że pojazd opuści drogę i znajdzie się w słabo widocznym miejscu? Z jednej strony mamy pojedyncze zgłoszenie, że doszło do wypadku, z drugiej wiele raportów, że ruch odbywa się normalnie. Jak rozstrzygnąć taki spór?
IS: Można użyć informacji o lokalizacji by rozdzielić źródła pochodzenia tych komunikatów. W ten sposób można będzie orzec, że do wypadku doszło, ale nie miał wpływu na ruch.
TK: Można też zastosować priorytety komunikatów i jako bardziej wiarygodne traktować te wygenerowane przez systemy bezpieczeństwa - np. o odpaleniu poduszek powietrznych.
IS: Tak, to też jest pewne rozwiązanie. Niewątpliwie jednak jest to problem do rozwiązania, nawet w przypadku bardziej ogólnym, gdy jeden z samochodów raportuje korek, a drugi płynny ruch pozostaje pytanie, który z nich ma rację.

Nagrody

Zwieńczeniem trzeciego dnia konferencji był bankiet w Pałacu Kultury i Nauki w Warszawie. Aby zapewnić atmosferę zbieżną z historią Pałacu, oprawę muzyczną przygotowano w stylu lat 50. Podczas bankietu uroczyście wręczono nagrody za najlepsze zgłoszone artykuły:

  • Nagroda Zdzisława Pawlaka 2014 za najlepszy artykuł została przyznana zespołowi: Bernadette Varga, Andrei Roth za artykuł "LELA - A Natural Language Processing System for Romanian Tourism".
  • Nagroda Zdzisława Pawlaka 2014 za najlepszy artykuł studencki została przyznana zespołowi: Anras Bota, Miklos Kresz, Andras Pluhar za artykuł "The Inverse Infection Problem".
  • Nagrodę The 2014 International Fuzzy Systems Association Award przyznano zespołowi: Andrzej Janusz, Sebastian Stawicki, Hung Song Nguyen za artykuł "Adaptive Learning for Improving Semantic Tagging of Scientific Articles".
  • Nagrodę "The 2014 MMAP Best Paper Award" przyznano zespołowi: Daniel Pohl, Stefan Nickels, Ram Nalla, Oliver Grau za artykuł "High quality, low latency in-home streaming of multimedia applications for mobile devices".
  • Nagrodę "The 2014 MMAP Best Paper Award" przyznano także Annie Fabijańskiej (ex-equo) za artykuł "Gaussian-Based Approach to Subpixel Detection of Blurred and Unsharp Edges".

W pewnej chwili światła na sali przygasły i wprowadzono tryskający iskrami fajerwerków tort. Gdy dojeżdżał do sceny, dźwięk strażackiej syreny stał się już dobrze rozpoznawalny. Po chwili na scenie pojawiło się dwóch strażaków, uspokajając zgromadzonych gości słowami "sytuacja jest pod kontrolą". Tylko garnitury i krawaty wyzierające spod strażackich uniformów zdradzały, że jest to fragment zaplanowanej akcji. Faktycznie, był to wstęp do rozdania nagród i wyróżnień za artykuły zgłoszone na sesję CEIM-DM, poświęconą analizie danych w sytuacjach kryzysowych.

  • Miejsce 1.: "Feature Selection for Naive Bayesian Network Ensemble using Evolutionary Algorithms": Adam Zagorecki
  • Miejsce 2.: "Robust Method of Sparse Feature Selection for Multi-Label Classification with Naive Bayes": Dymitr Ruta
  • Miejsce 3.: "Building an Ensemble from a Single Naive Bayes Classifier in the Analysis of Key Risk Factors for Polish State Fire Service": Stefan Nikolić, Marko Knežević, Vladimir Ivančević, Ivan Luković

Wyróżnienia:

  • "Identification of Key Risk Factors for the Polish State Fire Service with Cascade Step Forward Feature Selection": Piotr Płoński
  • "Feature selection and allocation to diverse subsets for multi-label learning problems with large datasets": Eftim Zdravevski, Petre Lameski, Andrea Kulakov, Dejan Gjorgjevikj
  • "Parsimonious Naive Bayes": Marc Boulle

Wszystkie artykuły można znaleźć na stronie internetowej: https://fedcsis.org/proceedings/2014

Ostatnim oficjalnym punktem programu było podziękowanie osobom pomagającym podczas organizacji i realizacji konferencji. Otrzymali oni pamiątkowe piernikowe upominki.

Dalej: Relacja z czwartego, ostatniego dnia konferencji FedCSIS 2014

Poprzednio: Relacja z prezentacji towarzyszących drugiego dnia konferencji FedCSIS 2014


  • HP-sponsor-255
  • LogoMNiSW x800
    Konferencja została dofinansowana przez Ministra Nauki i Szkolnictwa Wyższego w ramach programu związanego z realizacją zadań upowszechniających naukę (decyzja nr 530/P-DUN/2015 z dnia 27 stycznia 2015 roku)
  • Patronat
    Logo KI SIO
  • Patron medialny
    logo3 biuletyn PTIwm2
  • Patron medialny
    logo1 Przeglad Org
    logoREQ v235x72 1
  • Patron 

    SIW logo 235
  • Patron medialny
    logo bpmstan 223
  • SMI2014-baner
  • HP-sponsor
  • baner-smi-2015 2
  • baner-IwZ-2015 1
  • baner-cmee-2015 1
  • baner-kkio-2015 1

Newsletter