Seminaria Katedry Inżynierii Oprogramowania (K7/W8) Politechniki Wrocławskiej, a od 2020 r. Katedry Informatyki Stosowanej (K45/W8), pod patronatem Sekcji Inżynierii Oprogramowania Komitetu Informatyki Polskiej Akademii Nauk
Prowadzący seminaria: prof. Zbigniew Huzar i dr hab. inż. Lech Madeyski, prof. nadzw.
Nowa strona, na której będą pojawiać się informacje o kolejnych seminariach, dostępna jest pod adresem: http://staff-ksi.pwr.edu.pl/software-engineering/
Poniżej dostępne są jedynie informacje nt. seminariów organizowanych od listopada 2016 r. do kwietnia 2020 r.
Plan seminariów
3 IV 2020 (piątek, godzina 13:15) Kalendarz03-04-2020 13:15
03-04-2020 14:45
Europe/Warsaw
Seminarium IO – Tworzenie diagramów klas UML w oparciu o ontologie dziedzinowe OWL 2
Tworzenie diagramów klas UML w oparciu o ontologie dziedzinowe OWL 2
mgr inż. Małgorzata Sadowska
Podczas prezentacji zostanie przedstawiona zaproponowana metoda tworzenia diagramów klas UML w oparciu o ontologie dziedzinowe wyrażone w języku OWL 2. Kluczowym krokiem metody jest sposób ekstrakcji elementów diagramu klas UML z ontologii. Wyróżniono metodę ekstrakcji bezpośredniej i metodę ekstrakcji rozszerzonej. Metoda ekstrakcji bezpośredniej zapewnia, że wydobyty diagram klas UML jest zawsze zgodny z ontologią. Metoda ekstrakcji rozszerzonej pozwala na wydobycie elementów UML, które są tylko częściowo oparte są na ontologii, ale jednocześnie nie są sprzeczne z ontologią. Propozycja ekstrakcji rozszerzonej wynikała z pragmatycznych potrzeb.
——————————-
ZOOM meeting ID: 216474319 Hasło: 909491
https://pwr-edu.zoom.us/j/216474319
Katedra Informatyki Stosowanej
60
Seminarium online: https://pwr-edu.zoom.us/j/216474319 Hasło: 909491
mgr inż. Małgorzata Sadowska
Wydział Informatyki i Zarządzania Politechniki Wrocławskiej
Tworzenie diagramów klas UML w oparciu o ontologie dziedzinowe OWL 2
Podczas prezentacji zostanie przedstawiona zaproponowana metoda tworzenia diagramów klas UML w oparciu o ontologie dziedzinowe wyrażone w języku OWL 2. Kluczowym krokiem metody jest sposób ekstrakcji elementów diagramu klas UML z ontologii. Wyróżniono metodę ekstrakcji bezpośredniej i metodę ekstrakcji rozszerzonej. Metoda ekstrakcji bezpośredniej zapewnia, że wydobyty diagram klas UML jest zawsze zgodny z ontologią. Metoda ekstrakcji rozszerzonej pozwala na wydobycie elementów UML, które są tylko częściowo oparte są na ontologii, ale jednocześnie nie są sprzeczne z ontologią. Propozycja ekstrakcji rozszerzonej wynikała z pragmatycznych potrzeb.
29 października 2019(g. 13:15, w sali 311a, w budynku D1)
dr inż. Marek Krótkiewicz
Katedra Systemów Informatycznych, Wydział Informatyki i Zarządzania Politechniki Wrocławskiej
Asocjacyjny metamodel danych
Podejście do modelowania danych eksploatowane od dekad skupia swoją uwagę właśnie na danych. W metamodelu asocjacyjnym (ang. Association-Oriented Metamodel – AOM) związki stanowią co najmniej tak samo istotny element, jak same dane. Z drugiej strony, podejście do tworzenia baz danych odchodzi coraz bardziej od modelowania poprzez rosnącą popularność rozwiązań semistrukturalnych.
AOM jest podejściem silnie strukturalnym zapewniającym implementowalność, jednoznaczność, dużą pojemność semantyczną oraz siłę wyrazu. Głównym celem prowadzonych badań było opracowanie narzędzia zapewniającego jednocześnie precyzję i wydajność modelowania. W ramach osiągnięcia naukowego zdefiniowano: model danych, język definicji i modyfikacji danych, język zapytań do bazy danych, język modelowania oraz formalizm reprezentacji symbolicznej wyrażeń metamodelu, zarówno na poziomie intensjonalnym jak i ekstensjonalnym.
8 X 2019 (g: 13:15, w sali 4.48, budynku B4)
dr inż. Wojciech Thomas
Katedra Inżynierii Oprogramowania,
Wydział Informatyki i Zarządzania Politechniki Wrocławskiej
Tutoring jako jedna z metod edukacji spersonalizowanej
We współczesnym świecie coraz większego znaczenia nabiera indywidualizacja procesu nauczania. Jednym ze stosowanych podejść jest tutoring polegający na pracy nauczyciela ze studentem w relacji jeden do jednego. W ramach seminarium zaprezentowana zostanie: specyfika tego podejścia, jego wady i zalety, porównanie z innymi metodami pracy indywidualnej (coaching, mentoring).
12 VI 2019 (g. 15:15, w sali 227, budynku B-4)
mgr inż. Marek Sośnicki
Katedra Inżynierii Oprogramowania,
Wydział Informatyki i Zarządzania Politechniki Wrocławskiej
Systematyczny Przegląd Literatury z tematu testowania mutacyjnego w językach C i C++.
Do większości najnowszych badań w temacie testowania mutacyjnego używany jest język JAVA, jednakże technika ta może być skutecznie zastosowana w innych środowiskach. Szczególnie użyteczna wydaje się ona w aplikacjach pisanych na systemy wbudowane wymagające dużej niezawodności. Takie systemy, są zazwyczaj pisane przy użyciu języków C i C++. W ostatnim czasie pojawiło się wiele nowych narzędzi oraz badań wspomagających testowanie mutacyjne w tych językach. W prezentacji zostanie omówiony postęp prac nad systematycznym przeglądem literatury z tematu testowania mutacyjnego w językach C oraz C++. Szczególny nacisk zostanie położony na problem wyszukania wszystkich artykułów z tego tematu – zostanie omówiona aplikacja mająca pomóc zautomatyzować proces wyszukiwania interesujących artykułów na podstawie ich treści.
12 VI 2019 (g. 15:15, w sali 227, budynku B-4)
mgr inż. Karolina Rączkowska-Gzowska
Katedra Inżynierii Oprogramowania,
Wydział Informatyki i Zarządzania Politechniki Wrocławskiej
Podejście do wytwarzania oprogramowania – kontekst dla aktywności języka UML
Jedną z notacji wykorzystywanych do opisu przebiegu przypadku użycia jest aktywność języka UML. Aby wyrażony w ten sposób opis był wartościowy, istotny jest kontekst, w którym aktywności jest definiowana – np. struktury danych przetwarzanych w ramach przebiegu, projekty interfejsów użytkownika. Podczas prezentacji zostanie przedstawiony aktualny stan prac nad podejściem do wytwarzania oprogramowania (w szczególności analizy systemowej) uwzględniający aktywność UML jako środek do definiowania przebiegów przypadków użycia. Zaprezentowana zostanie wstępna wersja ankiety kierowanej do ekspertów (analityków, testerów, programistów, architektów), która ma na celu zebranie informacji na temat elementów uwzględnionych w specyfikacjach, z którymi eksperci pracowali w komercyjnych projektach.
5 VI 2019 (g. 15:15, w sali 227, budynku B-4)
mgr inż. Dariusz Gall
Katedra Inżynierii Oprogramowania,
Wydział Informatyki i Zarządzania Politechniki Wrocławskiej
Wymagania wydajnościowe w podejściu do wytwarzania oprogramowania opartym o MDA
W ramach seminarium zostanie omówione uściślenie podejścia do wytwarzania oprogramowania MDA (Model-Driven Architecture), które uwzględnia wymagania wydajnościowe zdefiniowane na poziomie PIM (Platform Independent Model) oraz ich odwzorowanie do modelu na poziomie PSM (Platform Specific Model). Kluczowym elementem podejścia są transformacje wymagań wydajnościowych. Punktem wyjścia do ich przeprowadzenia jest zapisany jako PSM’ wynik transformacji wymagań funkcjonalnych. Wynikiem model PSM’’. Następnie, uwzględniając charakterystyki wydajnościowe platformy implementacyjnej i uruchomieniowej, tworzony jest model PCM (Palladio Component Model) – wydajnościowy model systemu umożliwiający wyznaczenie/zbadanie charakterystyk wydajnościowych za pomocą dedykowanego narzędzia.
5 VI 2019 (g. 15:15, w sali 227, budynku B-4)
mgr inż. Tomasz Lewowski
Katedra Inżynierii Oprogramowania,
Wydział Informatyki i Zarządzania Politechniki Wrocławskiej
Pozyskiwanie danych do modelowania brzydkich zapachów kodu
Kwestia zrozumiałości kodu od dawna stanowi duże wyzwanie dla programistów i badaczy. Jedną z prób systematyzacji tego problemu są brzydkie zapachy kodu, koncept wprowadzony przez Kenta Becka i Martina Fowlera pod koniec lat 90-tych.
Ich publikacja przedstawia ponad 20 różnego rodzaju brzydkich zapachów i opis cech charakterystycznych, po których zapachy te można rozpoznać. Rozwiązanie to zostało dobrze przyjęte przez programistów, jednakże wciąż jest rozumiane raczej na poziomie intuicyjnym a nie formalnym, co poważnie utrudnia automatyzację wykrywania brzydkich zapachów. W ramach badań prowadzone są prace nad zastosowaniem metod uczenia maszynowego w celu automatyzacji wykrywania brzydkich zapachów kodu. W czasie prezentacji szczególny nacisk zostanie położony na wieloetapowy proces zbierania danych uczących i pułapki na jakie można się tam natknąć oraz wyjaśnienie przyczyn, dla których uniknięcie ich jest kluczowe aby uzyskany algorytm był wartościowy.
5 VI 2019 (g. 15:15, w sali 227, budynku B-4)
mgr inż. Małgorzata Sadowska
Wydział Informatyki i Zarządzania Politechniki Wrocławskiej
Eksperymentalna ocena narzędzia do tworzenia i walidacji diagramów klas UML
W ramach pracy nad rozprawą doktorską zaprojektowano i zaimplementowano narzędzie przeznaczone do tworzenia i walidacji diagramów klas UML z wykorzystaniem ontologii dziedzinowych wyrażonych w OWL 2. Podczas prezentacji zostanie przedstawiony projekt, przebieg oraz wnioski z przeprowadzonego eksperymentu, którego celem była empiryczna ocena opracowanego narzędzia. W eksperymencie łącznie wzięło udział 57 studentów informatyki z Politechniki Wrocławskiej.
13 III 2019 (g. 15:15, w sali 227, budynku B-4)
dr Ludwik Kuźniarz
Szwedzka teoria dyplomowania – co to jest i jak to działa
Celem prezentacji jest omówienie procesu dyplomowania na studiach magisterskich w Blekinge Institute of Technology (BTH) w Karlskronie.
Najpierw przedstawię zarys procesu – ogólną koncepcję dyplomowania, główne elementy procesu oraz realizacji tego procesu. Następnie przedstawię bardziej szczegółowo dwa kluczowe kursy realizowane w ramach ogólnego procesu dyplomowania i krótko je skomentuję. Na zakończenie podzielę się swoim doświadczeniem z realizacji tego procesu w Instytucie Inżynierii Oprogramowania w BTH.
30 I 2019 (g. 13:15, w sali 228, budynku B-4)
dr inż. Adrianna Kozierkiewicz, dr inż. Marcin Pietranik
Katedra Systemów Informatycznych, Wydział Informatyki i Zarządzania Politechniki Wrocławskiej
Ogólny model zarządzania i przetwarzania ontologii
W ostatnich latach ontologie stały się wygodną i elastyczną strukturą do przetwarzania wiedzy w systemach komputerowych. Znalazły one szeroki wachlarz zastosowań: od modelów prognozowania pogody po systemy ekspertowe.
W ramach seminarium zostaną przedstawione ostatnie wyniki badań oraz kierunki rozwoju w trzech obszarach dotyczących ontologii. W pierwszej części zostanie zaprezentowany ogólny, matematyczny model ontologii, który stał się teoretyczną podstawą do dalszych badań w tej dziedzinie.
W kolejnym kroku zostanie przedstawiony zestaw metod służących do oceny przyrostu wiedzy w procesie integracji ontologii. W rzeczywistych rozwiązaniach często musimy podejmować decyzje w oparciu o całą dostępna wiedzę. Jednakże, wielkość takiej ontologii nie zawsze idzie w parze z zawartą w niej rozumianą semantycznie ilością wiedzy. Zaproponowane metody pozwolą na szybkie oszacowanie przyrostu wiedzy po dodaniu nowej ontologii, co pozwoli na podejmowanie decyzji o ewentualnym procesie integracji.
Ostatni etap zostanie poświęcony metodologii śledzenia zmian wprowadzanych w ontologiach. Modyfikacje te są spowodowane koniecznością aktualizacji ontologii z pojawienia się nowej wiedzy. Zmiany na poziomie ontologii mogą pociągać za sobą w konsekwencje w postaci dezaktualizacji odwzorowań między ontologiami. W związku z tym potrzebne są efektywne metody umożliwiające odpowiedź na pytanie, czy w trakcie ewolucji ontologii odwzorowania są nadal poprawne i jeśli nie, to w jaki sposób efektywnie zaktualizować odwzorowania między ontologiami.
9 I 2019 (g. 13:15, w sali 228, budynku B-4)
mgr inż. Sylwia Kopczyńska
Instytut Informatyki, Politechnika Poznańska
Pozyskiwanie wymagań pozafunkcjonalnych wspomagane szablonami
Wymagania pozafunkcjonalne (ang. non-functional requirements, w skrócie NFRy) dotyczą wydajności, bezpieczeństwa, dostępności itp. Są one często lekceważone, a w szczególności te, które są trudne do wyspecyfikowania lub wydają się oczywiste. Takie zachowanie to istotny czynnik ryzyka, ponieważ nieprawidłowe zarządzanie NFRami wielokrotnie okazało się jedną z głównych przyczyn niepowodzeń projektów informatycznych.
Jednym z podejść, które wspiera pozyskiwanie NFRów jest katalog szablonów. Szablon NFRa jest to wzorzec zdania w języku naturalnym, który zawiera parametry (puste miejsca) do wypełnienia i części opcjonalne, czyli fragmenty do wyboru.
Podczas prezentacji skupię się na następujących trzech pytaniach związanych z pozyskiwaniem NFRów:
- Czy NFRy są istotne w podejściach zwinnych do wytwarzania oprogramowania?
- Co wiemy na temat korzyści i kosztów związanych z korzystaniem z szablonów NFRów?
- Czy opinie zostawiane przez użytkowników sklepów on-line z aplikacjami są obiecującym źródłem NFRów, a w konsekwencji szablonów NFRów?
5 XII 2018 (g. 13:15, w sali 228, budynku B-4)
mgr inż. Michał Adamski
Capgemini Wrocław
Waga głosu użytkownika w procesie tworzenia oprogramowania w korporacji
Żyjemy w czasach, w których bardzo ważne są doświadczenia. Według Microsoftu do 2020 doświadczenie i wrażenie klienta, będzie najważniejszym czynnikiem wpływającym na wybór marki lub dostawcy. Ważniejszym niż sam produkt i jego cena. Jako konsumenci jesteśmy już przyzwyczajeni do nowoczesnych rozwiązań i usług dostępnych w Internecie, z których korzystamy i które spełniają nasze oczekiwania. Jako pracownicy, często musimy korzystać z narzędzi, które są nieintuicyjne i często utrudniają nam pracę zamiast ją ułatwiać. Powodem tego jest ignorowanie głosu użytkownika przy projektowaniu oprogramowania. Zaangażowanie użytkowników pozwala zrozumieć ich prawdziwe potrzeby oraz zidentyfikować problemy, z którymi na co dzień się mierzą.
Przedstawię jak wykorzystać proces projektowania user experience, aby stworzyć oprogramowanie, które zarówno spełnia oczekiwania użytkownika, jak i organizacji. W szczególności skoncentruję się na korzyściach zaangażowania użytkownika w fazie badania potrzeb i przy testowaniu rozwiązania. Omówię także moc szybkiego prototypowania.
Pomimo, wydawałoby się, oczywistych korzyści, duże organizacje, które wydają ogromne pieniądze na nowe oprogramowanie i inicjatywy związane z digitalizacją, wciąż niechętnie inwestują w projektowanie user experience. Przybliżę wyzwania, z jakimi my projektanci mierzymy się, starając się wprowadzić to podejście w korporacyjnym świecie.
21 XI 2018 (g. 13:15, sala 228, budynek B4)
dr inż. Bartosz Baliś
Katedra Informatyki, Wydział IET, Akademia Górniczo-Hutnicza w Krakowie
Tworzenie i wykonywanie aplikacji naukowych w paradygmacie przepływu pracy
Rosnącą złożoność obliczeń naukowych i coraz łatwiejszy dostęp do zasobów i usług rozproszonych infrastruktur obliczeniowych dużej skali powodują, że programowanie i wykonywanie aplikacji naukowych jest nieustającym wyzwaniem. Obliczenia naukowe często mają strukturę wieloetapowej analizy, dlatego też naukowy workflow (przepływ pracy) jest popularnym paradygmatem zarządzania obliczeniami naukowymi. Naukowy workflow ułatwia automatyzację obliczeń naukowych (science automation), dostarczając wygodnej abstrakcji do opisania problemu naukowego jako grafu zadań, a także środowiska wykonawczego (Workflow Management System), które ukrywa złożoność związaną z wykonaniem obliczeń (zrównoleglaniem, rozproszeniem, optymalizacją, niezawodnością, itd.). Paradygmat ten sprzyja również odtwarzalności obliczeń naukowych, niezwykle istotnej dla metody naukowej. W niniejszej prezentacji przedstawiony zostanie HyperFlow — model obliczeniowy, metoda programowania, oraz system zarządzania workflowem naukowym. Celem HyperFlow jest dostarczenie produktywnego ekosystemu do programowania i wykonywania obliczeń naukowych w modelu workflow, a także narzędzia do badań związanych z paradygmatem naukowego workflow. Omówiony zostanie model obliczeniowy HyperFlow oraz jego możliwości programistyczne. Następnie zaprezentowane zostaną wyniki badań związane z zarządzaniem obliczeniami naukowymi w rozproszonych infrastrukturach obliczeniowych (chmurach). Wreszcie przedstawione zostaną wyniki badawcze związane z zastosowaniem systemu HyperFlow w takich dziedzinach jak obliczenia pilne czy zrównoleglanie aplikacji typowych dla systemów HPC w chmurach obliczeniowych.
Prezentacja z seminarium dostępna jest tutaj.
4 VII 2018 (g. 13:15)
mgr inż. Tomasz Lewowski
Katedra Inżynierii Oprogramowania, Politechnika Wrocławska
Uczenie maszynowe w problemie detekcji „brzydkich zapachów kodu” – przegląd literatury
„Brzydkie zapachy kodu” to typowe konstrukcje spotykane w kodzie źródłowym oprogramowania, co do których uważa się, że są błędogenne i powodują trudności w utrzymaniu. Literatura dotycząca „brzydkich zapachów kodu” jest bogata, ale jej wiarygodna analiza wciąż przedstawia poważne trudności. Podczas seminarium zostaną zaprezentowane trudności napotkane podczas przeprowadzania systematycznego przeglądu zastosowania metod uczenia maszynowego w problemie detekcji „brzydkich zapachów kodu”, a także wstępne podsumowanie danych zebranych w ramach tegoż przeglądu.
6 VI 2018 (g. 13:15)
mgr inż. Marcin Stachowiak
Katedra Inżynierii Oprogramowania, Politechnika Wrocławska
Metoda automatycznego generowania łat oprogramowania z użyciem głębokiego uczenia
Uczenie maszynowe coraz częściej znajduje zastosowanie w podstawowych gałęziach przemysłu, w tym również podczas tworzenia oprogramowania. Wykonano już wiele prób zastosowania sztucznej inteligencji w celu poprawy jakości procesów i wytwarzanych produktów w inżynierii oprogramowania. Rozwiązania te wciąż jednak nie są powszechnie stosowane, głównie ze względu na niską skuteczność osiąganych wyników oraz koszty jakie pociąga za sobą zastosowanie uczenia maszynowego do wspierania decyzji w projektach informatycznych. Podczas seminarium zostaną zaprezentowane konkretne przykłady, gdzie sztuczna inteligencja może asystować programistom, architektom, testerom i managerom projektów. Zaprezentowane możliwości wykorzystania uczenia maszynowego w Inżynierii Oprogramowania zostaną oparte o Systematyczny Przegląd Literatury, który w znacznej części został już wykonany. Szczególna uwaga zostanie skupiona wokół zagadnienia automatycznego generowania łat oprogramowania i zastosowania do tego celu algorytmów uczenia głębokiego oraz uczenia ze wzmocnieniem.
9 V 2018 (g. 13:15)
mgr inż. Karolina Rączkowska
Katedra Inżynierii Oprogramowania, Politechnika Wrocławska
Formalizacja aktywności języka UML wykorzystywanych do opisywania przebiegów przypadków użycia
Język UML jest językiem powszechnie używanym do modelowania oprogramowania. Jednym z elementów tego języka są aktywności wykorzystywane między innymi do opisywania scenariuszy przypadków użycia. Brak sformalizowanej semantyki elementów języka UML (która w specyfikacji wyrażona jest za pomocą języka naturalnego) znacząco utrudnia weryfikację modelową, istotną przy próbie automatyzacji procesu wytwarzania oprogramowania – z tego powodu formalizacja semantyki tych elementów ma duże znaczenie. W pracy nad rozprawą doktorską zostanie zaproponowana formalizacja semantyki aktywności oraz przygotowane narzędzie umożliwiające weryfikację zgodności aktywności z intencją modelującego. Podczas prezentacji przedstawiona będzie koncepcja rozprawy doktorskiej oraz aktualny stan prac – wyniki analizy specyfikacji UML pod kątem identyfikacji problemów związanych z interpretacją semantyki aktywności.
25 IV 2018 (g. 13:15)
dr inż. Grzegorz Filcek
Katedra Informatyki, Politechnika Wrocławska
Wprowadzenie do SysML jako języka inżynierii systemów
Przedstawione zostaną podstawowe informacje na temat języka SysML, jego użycie w cyklu życia systemu, a także podobieństwa i główne różnice w odniesieniu do UML. W szczególności zaprezentowane i omówione będą charakterystyczne dla języka diagramy służące opisowi systemów. W trakcie seminarium przedstawiony zostanie przykład wykorzystania języka w projektowaniu prostego systemu, który zilustruje ideę omawianych diagramów. Aktywny udział uczestników seminarium w dyskusji na temat wykorzystania tego języka w projektowaniu systemów informatycznych, oraz komentowanie na bieżąco jego omawianych elementów będzie mile widziane.
28 III 2018 (g. 13:15)
dr inż. Arkadiusz Liber
Katedra Inżynierii Oprogramowania, Politechnika Wrocławska
Algebraiczne metody konstrukcji algorytmów podpisów na reprezentacjach grup abstrakcyjnych o nieskończonym nośniku
Rok 1976 przyniósł koncepcję schematu podpisu cyfrowego. Koncepcja zaproponowana przez Diffiego i Hellmana spowodowała poszukiwania rozwiązań matematycznych, które mogłyby zastąpić stosowany powszechnie podpis odręczny. Algorytmy podpisów cyfrowych zwykle rozważane są jako trójki (Ag, As, Av), w których algorytmy generacji kluczy, algorytmy podpisywania i weryfikacji podpisu oparte są na problemach trudnych teorii liczb. Przy czym najczęściej spotyka się tu rozwiązania oparte na problemach logarytmu dyskretnego i faktoryzacji. Zaproponowany przez Petera Shora, w 1994 roku, kwantowy algorytm faktoryzacji wymusił poszukiwanie nowych schematów kryptograficznych, a co za tym idzie nowych klas algorytmów podpisów cyfrowych. W ramach pracy przedstawiono wyniki poszukiwań struktur algebraicznych nadających się do konstrukcji nowych typów podpisów cyfrowych. W szczególności zaprezentowano rozszerzenia rozwiązań opartych na grupach skończonego rzędu Gp oraz Gpq, na grupy i pierścienie generowane przez krzywe algebraiczne oraz grupy dywizorów pochodzącej z operacji na rozmaitości algebraicznej. Jako dalszy przykład nośnika do konstrukcji nowoczesnych schematów podpisu mogą posłużyć nieskończone nieprzemienne grupy warkoczowe zaproponowane w 1925 roku przez Artina. Implementację operacji na tych grupach można zrealizować na macierzowej reprezentacji Burau w pierścieniu wielomianów Laurenta. Daje to możliwość implementacji i analizy takich algorytmów podpisu jak WalnutDSA, Wang i Hu, Kahrobaei i Koupparis.
14 III 2018 (g. 13:15)
dr Piotr Nawrocki
Katedra Informatyki, Wydział IET, Akademia Górniczo-Hutnicza w Krakowie
Metody i mechanizmy zapewniające zachowanie parametrów jakościowych usług realizowanych w systemach komputerowych o zmiennej dostępności zasobów
Obecnie jedną z najważniejszych koncepcji dotyczących sposobów wykorzystania i zarządzania usługami jest koncepcja architektury zorientowanej na usługi SOA (Service-Oriented Architecture). Zgodnie z tą koncepcją usługa powinna być uniwersalna i umożliwiać współdziałanie niezależnie od wykorzystanej platformy sprzętowej i programowej, mieć dobrze zdefiniowany interfejs/kontrakt i reguły działania, obejmować aspekty związane z obszarem biznesowym/technicznym, posiadać budowę modułową, mieć luźne zależności i połączenia pomiędzy usługami, wspierać mechanizmy introspekcji i wyszukiwania za pomocą rejestrów oraz być dostępna niezależnie od wykorzystywanych mechanizmów transportu danych. Oprócz przedstawionych powyżej wymagań statycznych usługa powinna spełniać wymagania dynamiczne związane z zachowaniem parametrów QoS (Quality of Service) i kontraktu SLA niezależnie od kontekstu (na przykład szczytu zapotrzebowania na energię lub szczytu natężenia ruchu sieciowego), czyli zbioru parametrów środowiskowych w którym działa, co nie jest proste do realizacji. Wynika to z faktu, że coraz więcej współczesnych systemów komputerowych działa w dynamicznie zmieniających się środowiskach, co oznacza między innymi konieczność uwzględnienia zmiany kontekstu, w którym działa usługa, wynikającej ze zmiennej dostępności zasobów. Dlatego złożonym problem, który dotąd nie był szerzej badany jest zapewnienie zachowania parametrów usługi, w tym przede wszystkim parametrów QoS i kontraktu SLA, w systemach komputerowych o zmiennej dostępności zasobów. Brak rozwiązań w tym zakresie był główną motywacją prac badawczych przeprowadzonych przez autora. Celem zrealizowanych przez autora badań było opracowanie metod i mechanizmów pozwalających na zachowanie parametrów usług w tym parametrów QoS i kontraktu SLA w systemach komputerowych o zmiennej dostępności zasobów. W wyniku tych prac, autor opracował metody i mechanizmy doposażenia usługi w dodatkową funkcjonalność, obejmującą także elementy inteligencji, która pozwoliła na adaptowanie się usługi do kontekstu, w którym się znajduje z zachowaniem jej parametrów w szczególności związanych z jakością usługi.
Prezentacja z seminarium dostępna jest tutaj.
6 XII 2017 (g. 13:15)
mgr inż. Małgorzata Sadowska
Katedra Inżynierii Oprogramowania, Politechnika Wrocławska
Wykorzystanie ontologii dziedzinowych w OWL 2 w procesie walidacji diagramów klas UML
Ontologie dziedzinowe stanowią źródło wiedzy na temat konkretnych dziedzin i wycinków rzeczywistości. W ramach pracy nad rozprawą doktorską zaprojektowano i zaimplementowano prototyp narzędzia przeznaczonego do walidacji diagramów klas UML. Narzędzie w procesie walidacji wykorzystuje ontologie dziedzinowe wyrażone w OWL 2 w celu automatycznego rozpoznania czy narysowany diagram klas jest zgodny czy sprzeczny z wybraną przez użytkownika ontologią. Podczas prezentacji przedstawiona zostanie metoda walidacji, prototyp narzędzia oraz przykłady jego zastosowań.
8 XI 2017 (g. 13:15)
mgr inż. Aleksander Mariański
Katedra Inżynierii Oprogramowania, Politechnika Wrocławska
Zastosowanie analitycznego procesu hierarchicznego do problemu selekcji usługi webowej z wykorzystaniem zmiennych losowych
Analityczny proces hierarchiczny jest znaną, rozwijaną i szeroko stosowaną metodą podejmowania decyzji. W ramach pracy doktorskiej skonstruowano modułowy probabilistyczny analityczny proces hierarchiczny. Proces ten pozwala na podejmowanie decyzji w sytuacjach, gdzie istnieją dane statystyczne dotyczące wybranych kryteriów. Proces ten szczególnie można zastosować w problemach z dużą liczbą wariantów decyzyjnych oraz gdy wartości wybranych kryteriów wyraża się poprzez zmienne losowe. W prezentacji zostanie przedstawiona analiza literaturowa, opis probabilistycznego analitycznego procesu hierarchicznego, rozwiązanie problemu selekcji usługi webowej za pomocą procesu oraz inne możliwe zastosowania procesu w rzeczywistych problemach.
12 IV 2017 (g. 13:15)
dr Krzysztof Wnuk
Assistant Professor, BTH, Sweden
Inżynieria Wymagań 2.0: wyzwania i możliwości
Ta prezentacja analizuje zmiany, które nastąpiły w ostatnim dziesięcioleciu w dziedzinie analizy wymagań oraz definicji i zarządzania produktami software’owymi. Przeanalizujemy wyzwania oraz możliwości podjęcia tych wyzwań, zarówno przez naukowców jak i przemysł. Dyskusja skupi się na analizie informacji od użytkowników, ustalaniu odpowiedniej strategi współpracy w Ekosystemach software’owych, zrozumieniu kiedy wymagania stają się „nieaktualne” lub tracą swoją „innowacyjność”. Przeanalizujemy również nowe wyzwania w definiowaniu i realizacji wymagań nie-funkcjonalnych oraz ich wpływ na udaną realizację produktów software’owych. Prezentacja zakończy się dyskusją o modelach współpracy między przemysłem a uczelniami oraz sposobami na zacieśnienie tej współpracy.
5 IV 2017 (g. 13:15)
dr inż. Maciej Malawski
Katedra Informatyki, Wydział IET, Akademia Górniczo-Hutnicza w Krakowie
Zastosowanie chmur obliczeniowych dla aplikacji naukowych
Współczesna nauka wymaga coraz więcej zasobów służących do obliczeń oraz przetwarzania i przechowywania danych. Chmury obliczeniowe, bazujące na wcześniejszych rozwiązaniach takich jak systemy rozproszone i środowiska gridowe, są potencjalnym źródłem zasobów dla tego typu aplikacji naukowych. Przykładami, na których skupia się praca są aplikacje komponentowe, aplikacje typu grafy zadań (workflow) i ich zespoły (ensemble), a także aplikacje typu bag-of-tasks. Zarządzanie zasobami w takim środowisku powinno uwzględniać takie czynniki jak wydajność i koszt, a także inne charakterystyki infrastruktury chmur, jak związane z nią opóźnienia, zmienność, podatność na awarie, ziarnistość dostępu do zasobów i ich rozliczania oraz sposób dostępu do danych. Głównymi osiągnięciami prac badawczych były m.in.: opracowanie modelu komponentowego do obliczeń naukowych w chmurach, opracowanie modeli aplikacji i infrastruktur dla hybrydowych chmur obliczeniowych, opracowanie modeli optymalizujących koszt wykonania aplikacji w chmurze, a także opracowanie nowych algorytmów dotyczących dostarczania zasobów i szeregowania zadań. Zaprezentowane zostaną również wyniki badań eksperymentalnych, w tym pomiar wydajności w chmurach, stworzenie symulatora dla zbiorów grafów zadań, potwierdzenie efektywności i wydajności modeli optymalizacyjnych oraz algorytmów w szerokim zakresie parametrów, a także uzyskanie charakterystyk kosztowo-wydajnościowych. Wyniki badań mogą prowadzić do lepszego zrozumienia działania i lepszego wykorzystania nowoczesnych zasobów obliczeniowych.
Slajdy z wykładu dostępne są tutaj.
1 III 2017 (g. 13:15)
mgr inż. Przemysław Plecka
Politechnika Koszalińska
Metoda przedwdrożeniowego wymiarowania zmian oprogramowania wybranej klasy systemów ERP
Streszczenie: Znane metody szacowania kosztów oprogramowania ERP nie uwzględniają zebranego i kumulującego się doświadczenia płynącego z wcześniejszych wdrożeń. W tym kontekście, celem prowadzonych badań jest opracowanie nowej, konkurencyjnej metody wymiarowania zmian oprogramowania, gwarantującej dokładniejsze wyniki i nie kosztowniejszej w realizacji, niż inne aktualnie dostępne metody. W wyniku prowadzonych badań zdefiniowano metamodel parametrów wdrożenia wraz z operacjami, jakie można w nim przeprowadzić, na jego podstawie zdefiniowano model kosztów wdrożenia z rozmytymi właściwościami składowych – fuzzy OMKW, który spełnia w większym stopniu niż znane modele zakładane warunki jakości danych oraz określono autorską metodę szacowania kosztów wdrożenia – fuzzy SKW; wykorzystującą rozmyty model fuzzy OMKW. Przeprowadzono badania weryfikujące przydatność metody fuzzy SKW. Wyniki badań bezpośrednio potwierdzają realizację celu pracy.
Slajdy z wykładu dostępne są tutaj.
11 I 2017 (g. 13:15)
mgr inż. Tomasz Lewowski
Politechnika Wrocławska
Zastosowanie analizy statycznej kodu do wykrywania niespójności wzorców w kodzie źródłowym
Streszczenie: Statyczna analiza jest popularnym mechanizmem wykrywania potencjalnych defektów i nietypowych wzorców w kodzie źródłowym programu. Dotychczasowe badania w zakresie analizy statycznej skupiają się w większości na próbie dopasowywania znanych strukturalnych wzorców błędnego kodu do źródeł analizowanych aplikacji, analizie przepływu danych w celu wykrycia sytuacji anormalnych lub na w pełni sformalizowanym dowodzeniu własności programu.Zaprezentowana zostanie koncepcja heurystycznego zastosowania analizy statycznej w celu odkrycia niskopoziomowych założeń architektonicznych i konwencji programistycznych stosowanych w danym projekcie, które mogły zostać zagubione w czasie rozwoju aplikacji – na przykład z powodu zmian w zespole projektowym. Krótko przedstawione zostaną możliwe zastosowania narzędzia dostarczającego tego typu dane.
21 XII 2016 (g. 13:15)
dr inż. Piotr Zabawa
Politechnika Krakowska im. Tadeusza Kościuszki
Paradygmat metamodelowania sterowanego kontekstem (CDMM-P)
Streszczenie: W odróżnieniu od powszechnie stosowanego w definiowaniu języków modelowania (w metamodelowaniu) paradygmatu klasowo-obiektowego, w którym wszystkie elementy metamodelu zdefiniowane są w czasie kompilacji (compile-time), prezentowany nowy paradygmat metamodelowania sterowanego kontekstem (CDMM-P) pozwala na definiowanie grafowego języka modelowania w czasie wykonania (run-time). Podejście to znacząco zwiększa swobodę w definiowaniu nowych języków modelowania, pozwala na kastomizację istniejących (np. UML), ułatwia wprowadzanie zmian do języków modelowania (własnych wcześniej zdefiniowanych), ułatwia przeprowadzanie procesu ewolucyjnego nadążania modelami za zmieniającym się metamodelem (evolutionary meta-modeling). Jako pierwsze, podejście to umożliwia generowanie w czasie wykonania narzędzia do sterowanego modelem generowania oprogramowania oraz jego zasobów – struktura tego narzędzia odzwierciedla strukturę metamodelu. W porównaniu ze standardami Object Management Group (www.omg.org) prezentowane podejście stanowi daleko idące ich uogólnienie, a standardy Model-Driven Architecture (MDA) są przykładem jednej z wielu możliwości zastosowań CDMM-P. Z punktu widzenia ontologii i jej standardów, takich jak RDF lub OWL prezentowane rozwiązanie wpisuje się w ontologie otwarte (jednak z restrykcjami na strukturę modelu wynikającymi ze struktury metamodelu), które wcześniej nie były wykorzystywane w inżynierii oprogramowania.
Zastosowanie CDMM-P pozwala na pokonanie wielu współczesnych ograniczeń w metamodelowaniu, w tym wyeliminowanie bariery związanej z długotrwałym procesem standaryzowania w OMG uniemożliwiającym wykorzystywanie nowych technologii, długotrwały brak wsparcia narzędziowego (w podejściu Model-Driven Design) dla tych technologii, brak możliwości wprowadzania do metamodelu pojęć funkcjonujących obecnie jedynie jako koncepcje.
Slajdy z wykładu dostępne są tutaj.
30 XI 2016 (g. 13.15)
dr hab. inż. Piotr Kosiuczenko, prof. nadzw.
Wojskowa Akademia Techniczna
Specyfikacje kontraktowe jako przedmiot badań
Streszczenie: Języki kontraktowej specyfikacji, jak. np. JML i OCL, są szeroko znane i stosowane. Są też przedmiotem nauczania na kierunku informatyka. Mimo tego, ich podstawy, implementacja i zastosowania wciąż wymagają badań. W tym wystąpieniu przedstawimy wyniki naszych badań dotyczących specyfikacji kontraktowych. Omówimy pewne problemy związane z implementacją, w szczególności z implementacją operatora @pre i proponowane rozwiązanie. Powiemy o problemie specyfikacji części niezmienniczej w języku OCL. W tym wystąpieniu skoncentrujemy się na problemie wizualizacji specyfikacji kontraktowej za pomocą tzw. maszyn stanu języka UML i przedstawimy metodę syntezy maszyn stanów ze specyfikacji kontraktowych.
9 XI 2016 (g.13.15)
dr hab. inż. Krzysztof Krawiec, prof. nadzw.
Politechnika Poznańska
Behavioral Program Synthesis with Genetic Programming
Streszczenie: A running program may exhibit complex behavior, not only in terms of the produced output, but also regarding the execution states it traverses. In program synthesis as practiced with conventional genetic programming, only a fraction of that behavior, usually compressed into a scalar fitness, is used to navigate the search space. This 'evaluation bottleneck’ leaves a search algorithm underinformed about the actual and potential qualities of candidate programs. Behavioral program synthesis aims at providing search algorithms with richer information on a program’s operating characteristics, and so making them better informed and thus more efficient. In this talk, I will present the motivations and interesting features of the behavioral perspective, show how the existing approaches fit into it, and discuss the implications for program synthesis and automated design of algorithms.
2 XI 2016 (g.13.15)
dr hab. inż. Tadeusz Gospodarek, prof. nadzw.
Wyższa Szkoła Bankowa we Wrocławiu
Od koncepcji niematematycznych zarządzania do formalnych reprezentacji informacyjnych w systemach ERP
Streszczenie: Modelowanie systemów informacyjnych wspomagających podejmowanie decyzji związanych z ekonomią lub zarządzaniem dotyczy równocześnie dwóch warstw logicznych. Z jednej strony konieczne jest stworzenie modelu semantycznego części ekonomicznej, który w sposób jednoznaczny pozwala utworzyć reprezentację numeryczną kryterium decyzyjnego lub informację syntetyczną. Równolegle konieczne jest utworzenie modeli informatycznych przetwarzania danych na różnych poziomach interoperacyjności. Obie, te procedury podlegają modelowaniu kaskadowemu, od modelu ontycznego do syntaktycznego. Najważniejszym problemem staje się uzyskanie interoperacyjności modeli na poziomie semantycznym. Najważniejszym problemem do rozwiązania na tym poziomie staje się uzyskanie równoważności semantycznej między modelem ekonomicznym i modelem IT. Przykładem takiego ujęcia są systemy ERP i stały problem z tym związany: czy to organizacja ma się dopasować do technologii IT, czy też odwrotnie? Część wykładu będzie poświęcona zagadnieniom dopasowania kultury organizacyjnej do poziomu technologii IT w kontekście modeli adaptatywnych na poziomie semantycznym.
Slajdy z wykładu dostępne są tutaj.