Seminaria

Seminaria Katedry Inżynierii Oprogramowania (K7/W8) Politechniki Wrocławskiej i Sekcji Inżynierii Oprogramowania Komitetu Informatyki Polskiej Akademii Nauk

logo_io_1_pl_1200x272siopan-pl-white

Prowadzący seminaria: prof. Zbigniew Huzar i dr hab. inż. Lech Madeyski, prof. nadzw.

Miejsce: sala 201/20, budynek D2 Politechniki Wrocławskiej


Plan seminariów


12 IV 2017 (g. 13:15)

dr Krzysztof Wnuk
Assistant Professor, BTH, Sweden

Temat: Inżynieria Wymagań 2.0: wyzwania i możliwości

Ta prezentacja analizuje zmiany, które nastąpiły w ostatnim dziesięcioleciu w dziedzinie analizy wymagań oraz definicji i zarządzania produktami software’owymi. Przeanalizujemy wyzwania oraz możliwości podjęcia tych wyzwań, zarówno przez naukowców jak i przemysł. Dyskusja skupi się na analizie informacji od użytkowników, ustalaniu odpowiedniej strategi współpracy w Ekosystemach software’owych, zrozumieniu kiedy wymagania stają się „nieaktualne” lub tracą swoją „innowacyjność”. Przeanalizujemy również nowe wyzwania w definiowaniu i realizacji wymagań nie-funkcjonalnych oraz ich wpływ na udaną realizację produktów software’owych. Prezentacja zakończy się dyskusją o modelach współpracy między przemysłem a uczelniami oraz sposobami na zacieśnienie tej współpracy.


5 IV 2017 (g. 13:15)

dr inż. Maciej Malawski
Katedra Informatyki, Wydział IET, Akademia Górniczo-Hutnicza w Krakowie

Temat: Zastosowanie chmur obliczeniowych dla aplikacji naukowych

Współczesna nauka wymaga coraz więcej zasobów służących do obliczeń oraz przetwarzania i przechowywania danych. Chmury obliczeniowe, bazujące na wcześniejszych rozwiązaniach takich jak systemy rozproszone i środowiska gridowe, są potencjalnym źródłem zasobów dla tego typu aplikacji naukowych. Przykładami, na których skupia się praca są aplikacje komponentowe, aplikacje typu grafy zadań (workflow) i ich zespoły (ensemble), a także aplikacje typu bag-of-tasks. Zarządzanie zasobami w takim środowisku powinno uwzględniać takie czynniki jak wydajność i koszt, a także inne charakterystyki infrastruktury chmur, jak związane z nią opóźnienia, zmienność, podatność na awarie, ziarnistość dostępu do zasobów i ich rozliczania oraz sposób dostępu do danych. Głównymi osiągnięciami prac badawczych były m.in.: opracowanie modelu komponentowego do obliczeń naukowych w chmurach, opracowanie modeli aplikacji i infrastruktur dla hybrydowych chmur obliczeniowych, opracowanie modeli optymalizujących koszt wykonania aplikacji w chmurze, a także opracowanie nowych algorytmów dotyczących dostarczania zasobów i szeregowania zadań. Zaprezentowane zostaną również wyniki badań eksperymentalnych, w tym pomiar wydajności w chmurach, stworzenie symulatora dla zbiorów grafów zadań, potwierdzenie efektywności i wydajności modeli optymalizacyjnych oraz algorytmów w szerokim zakresie parametrów, a także uzyskanie charakterystyk kosztowo-wydajnościowych. Wyniki badań mogą prowadzić do lepszego zrozumienia działania i lepszego wykorzystania nowoczesnych zasobów obliczeniowych.

Slajdy z wykładu dostępne są tutaj.


1 III 2017 (g. 13:15)

mgr inż. Przemysław Plecka
Politechnika Koszalińska

Temat: Metoda przedwdrożeniowego wymiarowania zmian oprogramowania wybranej klasy systemów ERP

Streszczenie: Znane metody szacowania kosztów oprogramowania ERP nie uwzględniają zebranego i kumulującego się doświadczenia płynącego z wcześniejszych wdrożeń. W tym kontekście, celem prowadzonych badań jest opracowanie nowej, konkurencyjnej metody wymiarowania zmian oprogramowania, gwarantującej dokładniejsze wyniki i nie kosztowniejszej w realizacji, niż inne aktualnie dostępne metody. W wyniku prowadzonych badań zdefiniowano metamodel parametrów wdrożenia wraz z operacjami, jakie można w nim przeprowadzić, na jego podstawie zdefiniowano model kosztów wdrożenia z rozmytymi właściwościami składowych – fuzzy OMKW, który spełnia w większym stopniu niż znane modele zakładane warunki jakości danych oraz określono autorską metodę szacowania kosztów wdrożenia – fuzzy SKW; wykorzystującą rozmyty model fuzzy OMKW. Przeprowadzono badania weryfikujące przydatność metody fuzzy SKW. Wyniki badań bezpośrednio potwierdzają realizację celu pracy.

Slajdy z wykładu dostępne są tutaj.


11 I 2017 (g. 13:15)

mgr inż. Tomasz Lewowski
Politechnika Wrocławska

Temat: Zastosowanie analizy statycznej kodu do wykrywania niespójności wzorców w kodzie źródłowym

Streszczenie: Statyczna analiza jest popularnym mechanizmem wykrywania potencjalnych defektów i nietypowych wzorców w kodzie źródłowym programu. Dotychczasowe badania w zakresie analizy statycznej skupiają się w większości na próbie dopasowywania znanych strukturalnych wzorców błędnego kodu do źródeł analizowanych aplikacji, analizie przepływu danych w celu wykrycia sytuacji anormalnych lub na w pełni sformalizowanym dowodzeniu własności programu.Zaprezentowana zostanie koncepcja heurystycznego zastosowania analizy statycznej w celu odkrycia niskopoziomowych założeń architektonicznych i konwencji programistycznych stosowanych w danym projekcie, które mogły zostać zagubione w czasie rozwoju aplikacji – na przykład z powodu zmian w zespole projektowym. Krótko przedstawione zostaną możliwe zastosowania narzędzia dostarczającego tego typu dane.


 21 XII 2016 (g. 13:15)

dr inż. Piotr Zabawa
Politechnika Krakowska im. Tadeusza Kościuszki

Temat: Paradygmat metamodelowania sterowanego kontekstem (CDMM-P)

Streszczenie: W odróżnieniu od powszechnie stosowanego w definiowaniu języków modelowania (w metamodelowaniu) paradygmatu klasowo-obiektowego, w którym wszystkie elementy metamodelu zdefiniowane są w czasie kompilacji (compile-time), prezentowany nowy paradygmat metamodelowania sterowanego kontekstem (CDMM-P) pozwala na definiowanie grafowego języka modelowania w czasie wykonania (run-time). Podejście to znacząco zwiększa swobodę w definiowaniu nowych języków modelowania, pozwala na kastomizację istniejących (np. UML), ułatwia wprowadzanie zmian do języków modelowania (własnych wcześniej zdefiniowanych), ułatwia przeprowadzanie procesu ewolucyjnego nadążania modelami za zmieniającym się metamodelem (evolutionary meta-modeling). Jako pierwsze, podejście to umożliwia generowanie w czasie wykonania narzędzia do sterowanego modelem generowania oprogramowania oraz jego zasobów – struktura tego narzędzia odzwierciedla strukturę metamodelu. W porównaniu ze standardami Object Management Group (www.omg.org) prezentowane podejście stanowi daleko idące ich uogólnienie, a standardy Model-Driven Architecture (MDA) są przykładem jednej z wielu możliwości zastosowań CDMM-P. Z punktu widzenia ontologii i jej standardów, takich jak RDF lub OWL prezentowane rozwiązanie wpisuje się w ontologie otwarte (jednak z restrykcjami na strukturę modelu wynikającymi ze struktury metamodelu), które wcześniej nie były wykorzystywane w inżynierii oprogramowania.

Zastosowanie CDMM-P pozwala na pokonanie wielu współczesnych ograniczeń w metamodelowaniu, w tym wyeliminowanie bariery związanej z długotrwałym procesem standaryzowania w OMG uniemożliwiającym wykorzystywanie nowych technologii, długotrwały brak wsparcia narzędziowego (w podejściu Model-Driven Design) dla tych technologii, brak możliwości wprowadzania do metamodelu pojęć funkcjonujących obecnie jedynie jako koncepcje.

Slajdy z wykładu dostępne są tutaj.


30 XI 2016 (g. 13.15)

dr hab. inż. Piotr Kosiuczenko, prof. nadzw.
Wojskowa Akademia Techniczna

Temat: Specyfikacje kontraktowe jako przedmiot badań

Streszczenie: Języki kontraktowej specyfikacji, jak. np. JML i OCL, są szeroko znane i stosowane. Są też przedmiotem nauczania na kierunku informatyka. Mimo tego, ich podstawy, implementacja i zastosowania wciąż wymagają badań. W tym wystąpieniu przedstawimy wyniki naszych badań dotyczących specyfikacji kontraktowych. Omówimy pewne problemy związane z implementacją, w szczególności z implementacją operatora @pre i proponowane rozwiązanie. Powiemy o problemie specyfikacji części niezmienniczej w języku OCL. W tym wystąpieniu skoncentrujemy się na problemie wizualizacji specyfikacji kontraktowej za pomocą tzw. maszyn stanu języka UML i przedstawimy metodę syntezy maszyn stanów ze specyfikacji kontraktowych.


9 XI 2016 (g.13.15)

dr hab. inż. Krzysztof Krawiec, prof. nadzw.
Politechnika Poznańska

Temat: Behavioral Program Synthesis with Genetic Programming

Streszczenie: A running program may exhibit complex behavior, not only in terms of the produced output, but also regarding the execution states it traverses. In program synthesis as practiced with conventional genetic programming, only a fraction of that behavior, usually compressed into a scalar fitness, is used to navigate the search space. This ‚evaluation bottleneck’ leaves a search algorithm underinformed about the actual and potential qualities of candidate programs. Behavioral program synthesis aims at providing search algorithms with richer information on a program’s operating characteristics, and so making them better informed and thus more efficient. In this talk, I will present the motivations and interesting features of the behavioral perspective, show how the existing approaches fit into it, and discuss the implications for program synthesis and automated design of algorithms.


2 XI 2016 (g.13.15)

dr hab. inż. Tadeusz Gospodarek, prof. nadzw.
Wyższa Szkoła Bankowa we Wrocławiu

Temat: Od koncepcji niematematycznych zarządzania do formalnych reprezentacji informacyjnych w systemach ERP

Streszczenie: Modelowanie systemów informacyjnych wspomagających podejmowanie decyzji związanych z ekonomią lub zarządzaniem dotyczy równocześnie dwóch warstw logicznych. Z jednej strony konieczne jest stworzenie modelu semantycznego części ekonomicznej, który w sposób jednoznaczny pozwala utworzyć reprezentację numeryczną kryterium decyzyjnego lub informację syntetyczną. Równolegle konieczne jest utworzenie modeli informatycznych przetwarzania danych na różnych poziomach interoperacyjności. Obie, te procedury podlegają modelowaniu kaskadowemu, od modelu ontycznego do syntaktycznego. Najważniejszym problemem staje się uzyskanie interoperacyjności modeli na poziomie semantycznym. Najważniejszym problemem do rozwiązania na tym poziomie staje się uzyskanie równoważności semantycznej między modelem ekonomicznym i modelem IT. Przykładem takiego ujęcia są systemy ERP i stały problem z tym związany: czy to organizacja ma się dopasować do technologii IT, czy też odwrotnie? Część wykładu będzie poświęcona zagadnieniom dopasowania kultury organizacyjnej do poziomu technologii IT w kontekście modeli adaptatywnych na poziomie semantycznym.

Slajdy z wykładu dostępne są tutaj.