Seminaria

Seminaria Katedry Inżynierii Oprogramowania (K7/W8) Politechniki Wrocławskiej i Sekcji Inżynierii Oprogramowania Komitetu Informatyki Polskiej Akademii Nauk

logo_io_1_pl_1200x272siopan-pl-white

Prowadzący seminaria: prof. Zbigniew Huzar i dr hab. inż. Lech Madeyski, prof. nadzw.

Miejsce: sala 201/20, budynek D2 Politechniki Wrocławskiej


Plan seminariów


5 XII 2018 (g. 13:15, w sali 228, budynku B-4)

mgr inż. Michał Adamski
Capgemini Wrocław

Temat: Waga głosu użytkownika w procesie tworzenia oprogramowania w korporacji

Żyjemy w czasach, w których bardzo ważne są doświadczenia. Według Microsoftu do 2020 doświadczenie i wrażenie klienta, będzie najważniejszym czynnikiem wpływającym na wybór marki lub dostawcy. Ważniejszym niż sam produkt i jego cena. Jako konsumenci jesteśmy już przyzwyczajeni do nowoczesnych rozwiązań i usług dostępnych w Internecie, z których korzystamy i które spełniają nasze oczekiwania. Jako pracownicy, często musimy korzystać z narzędzi, które są nieintuicyjne i często utrudniają nam pracę zamiast ją ułatwiać. Powodem tego jest ignorowanie głosu użytkownika przy projektowaniu oprogramowania. Zaangażowanie użytkowników pozwala zrozumieć ich prawdziwe potrzeby oraz zidentyfikować problemy, z którymi na co dzień się mierzą.

Przedstawię jak wykorzystać proces projektowania user experience, aby stworzyć oprogramowanie, które zarówno spełnia oczekiwania użytkownika, jak i organizacji. W szczególności skoncentruję się na korzyściach zaangażowania użytkownika w fazie badania potrzeb i przy testowaniu rozwiązania. Omówię także moc szybkiego prototypowania.

Pomimo, wydawałoby się, oczywistych korzyści, duże organizacje, które wydają ogromne pieniądze na nowe oprogramowanie i inicjatywy związane z digitalizacją, wciąż niechętnie inwestują w projektowanie user experience. Przybliżę wyzwania, z jakimi my projektanci mierzymy się, starając się wprowadzić to podejście w korporacyjnym świecie.


21 XI 2018 (g. 13:15, sala 228, budynek B4)

dr inż. Bartosz Baliś
Katedra Informatyki, Wydział IET, Akademia Górniczo-Hutnicza w Krakowie

Temat: Tworzenie i wykonywanie aplikacji naukowych w paradygmacie przepływu pracy

Rosnącą złożoność obliczeń naukowych i coraz łatwiejszy dostęp do zasobów i usług rozproszonych infrastruktur obliczeniowych dużej skali powodują, że programowanie i wykonywanie aplikacji naukowych jest nieustającym wyzwaniem. Obliczenia naukowe często mają strukturę wieloetapowej analizy, dlatego też naukowy workflow (przepływ pracy) jest popularnym paradygmatem zarządzania obliczeniami naukowymi. Naukowy workflow ułatwia automatyzację obliczeń naukowych (science automation), dostarczając wygodnej abstrakcji do opisania problemu naukowego jako grafu zadań, a także środowiska wykonawczego (Workflow Management System), które ukrywa złożoność związaną z wykonaniem obliczeń (zrównoleglaniem, rozproszeniem, optymalizacją, niezawodnością, itd.). Paradygmat ten sprzyja również odtwarzalności obliczeń naukowych, niezwykle istotnej dla metody naukowej. W niniejszej prezentacji przedstawiony zostanie HyperFlow — model obliczeniowy, metoda programowania, oraz system zarządzania workflowem naukowym. Celem HyperFlow jest dostarczenie produktywnego ekosystemu do programowania i wykonywania obliczeń naukowych w modelu workflow, a także narzędzia do badań związanych z paradygmatem naukowego workflow. Omówiony zostanie model obliczeniowy HyperFlow oraz jego możliwości programistyczne. Następnie zaprezentowane zostaną wyniki badań związane z zarządzaniem obliczeniami naukowymi w rozproszonych infrastrukturach obliczeniowych (chmurach). Wreszcie przedstawione zostaną wyniki badawcze związane z zastosowaniem systemu HyperFlow w takich dziedzinach jak obliczenia pilne czy zrównoleglanie aplikacji typowych dla systemów HPC w chmurach obliczeniowych.

Prezentacja z seminarium dostępna jest tutaj.


4 VII 2018 (g. 13:15)

mgr inż. Tomasz Lewowski
Katedra Inżynierii Oprogramowania, Politechnika Wrocławska

Temat: Uczenie maszynowe w problemie detekcji „brzydkich zapachów kodu” – przegląd literatury

„Brzydkie zapachy kodu” to typowe konstrukcje spotykane w kodzie źródłowym oprogramowania, co do których uważa się, że są błędogenne i powodują trudności w utrzymaniu. Literatura dotycząca „brzydkich zapachów kodu” jest bogata, ale jej wiarygodna analiza wciąż przedstawia poważne trudności. Podczas seminarium zostaną zaprezentowane trudności napotkane podczas przeprowadzania systematycznego przeglądu zastosowania metod uczenia maszynowego w problemie detekcji „brzydkich zapachów kodu”, a także wstępne podsumowanie danych zebranych w ramach tegoż przeglądu.


6 VI 2018 (g. 13:15)

mgr inż. Marcin Stachowiak
Katedra Inżynierii Oprogramowania, Politechnika Wrocławska

Temat: Metoda automatycznego generowania łat oprogramowania z użyciem głębokiego uczenia

Uczenie maszynowe coraz częściej znajduje zastosowanie w podstawowych gałęziach przemysłu, w tym również podczas tworzenia oprogramowania. Wykonano już wiele prób zastosowania sztucznej inteligencji w celu poprawy jakości procesów i wytwarzanych produktów w inżynierii oprogramowania. Rozwiązania te wciąż jednak nie są powszechnie stosowane, głównie ze względu na niską skuteczność osiąganych wyników oraz koszty jakie pociąga za sobą zastosowanie uczenia maszynowego do wspierania decyzji w projektach informatycznych. Podczas seminarium zostaną zaprezentowane konkretne przykłady, gdzie sztuczna inteligencja może asystować programistom, architektom, testerom i managerom projektów. Zaprezentowane możliwości wykorzystania uczenia maszynowego w Inżynierii Oprogramowania zostaną oparte o Systematyczny Przegląd Literatury, który w znacznej części został już wykonany. Szczególna uwaga zostanie skupiona wokół zagadnienia automatycznego generowania łat oprogramowania i zastosowania do tego celu algorytmów uczenia głębokiego oraz uczenia ze wzmocnieniem.


9 V 2018 (g. 13:15)

mgr inż. Karolina Rączkowska
Katedra Inżynierii Oprogramowania, Politechnika Wrocławska

Temat: Formalizacja aktywności języka UML wykorzystywanych do opisywania przebiegów przypadków użycia

Język UML jest językiem powszechnie używanym do modelowania oprogramowania. Jednym z elementów tego języka są aktywności wykorzystywane między innymi do opisywania scenariuszy przypadków użycia. Brak sformalizowanej semantyki elementów języka UML (która w specyfikacji wyrażona jest za pomocą języka naturalnego) znacząco utrudnia weryfikację modelową, istotną przy próbie automatyzacji procesu wytwarzania oprogramowania – z tego powodu formalizacja semantyki tych elementów ma duże znaczenie. W pracy nad rozprawą doktorską zostanie zaproponowana formalizacja semantyki aktywności oraz przygotowane narzędzie umożliwiające weryfikację zgodności aktywności z intencją modelującego. Podczas prezentacji przedstawiona będzie koncepcja rozprawy doktorskiej oraz aktualny stan prac – wyniki analizy specyfikacji UML pod kątem identyfikacji problemów związanych z interpretacją semantyki aktywności.


25 IV 2018 (g. 13:15)

dr inż. Grzegorz Filcek
Katedra Informatyki, Politechnika Wrocławska

Temat: Wprowadzenie do SysML jako języka inżynierii systemów

Przedstawione zostaną podstawowe informacje na temat języka SysML, jego użycie w cyklu życia systemu, a także podobieństwa i główne różnice w odniesieniu do UML. W szczególności zaprezentowane i omówione będą charakterystyczne dla języka diagramy służące opisowi systemów. W trakcie seminarium przedstawiony zostanie przykład wykorzystania języka w projektowaniu prostego systemu, który zilustruje ideę omawianych diagramów. Aktywny udział uczestników seminarium w dyskusji na temat wykorzystania tego języka w projektowaniu systemów informatycznych, oraz komentowanie na bieżąco jego omawianych elementów będzie mile widziane.


28 III 2018 (g. 13:15)

dr inż. Arkadiusz Liber
Katedra Inżynierii Oprogramowania, Politechnika Wrocławska

Temat: Algebraiczne metody konstrukcji algorytmów podpisów na reprezentacjach grup abstrakcyjnych o nieskończonym nośniku

Rok 1976 przyniósł koncepcję schematu podpisu cyfrowego. Koncepcja zaproponowana przez Diffiego i Hellmana spowodowała poszukiwania rozwiązań matematycznych, które mogłyby zastąpić stosowany powszechnie podpis odręczny. Algorytmy podpisów cyfrowych zwykle rozważane są jako trójki (Ag, As, Av), w których algorytmy generacji kluczy, algorytmy podpisywania i weryfikacji podpisu oparte są na problemach trudnych teorii liczb. Przy czym najczęściej spotyka się tu rozwiązania oparte na problemach logarytmu dyskretnego i faktoryzacji. Zaproponowany przez Petera Shora, w 1994 roku, kwantowy algorytm faktoryzacji wymusił poszukiwanie nowych schematów kryptograficznych, a co za tym idzie nowych klas algorytmów podpisów cyfrowych. W ramach pracy przedstawiono wyniki poszukiwań struktur algebraicznych nadających się do konstrukcji nowych typów podpisów cyfrowych. W szczególności zaprezentowano rozszerzenia rozwiązań opartych na grupach skończonego rzędu Gp oraz Gpq, na grupy i pierścienie generowane przez krzywe algebraiczne oraz grupy dywizorów pochodzącej z operacji na rozmaitości algebraicznej. Jako dalszy przykład nośnika do konstrukcji nowoczesnych schematów podpisu mogą posłużyć nieskończone nieprzemienne grupy warkoczowe zaproponowane w 1925 roku przez Artina. Implementację operacji na tych grupach można zrealizować na macierzowej reprezentacji Burau w pierścieniu wielomianów Laurenta. Daje to możliwość implementacji i analizy takich algorytmów podpisu jak WalnutDSA, Wang i Hu, Kahrobaei i Koupparis.


14 III 2018 (g. 13:15)

dr Piotr Nawrocki
Katedra Informatyki, Wydział IET, Akademia Górniczo-Hutnicza w Krakowie

Temat: Metody i mechanizmy zapewniające zachowanie parametrów jakościowych usług realizowanych w systemach komputerowych o zmiennej dostępności zasobów

Obecnie jedną z najważniejszych koncepcji dotyczących sposobów wykorzystania i zarządzania usługami jest koncepcja architektury zorientowanej na usługi SOA (Service-Oriented Architecture). Zgodnie z tą koncepcją usługa powinna być uniwersalna i umożliwiać współdziałanie niezależnie od wykorzystanej platformy sprzętowej i programowej, mieć dobrze zdefiniowany interfejs/kontrakt i reguły działania, obejmować aspekty związane z obszarem biznesowym/technicznym, posiadać budowę modułową, mieć luźne zależności i połączenia pomiędzy usługami, wspierać mechanizmy introspekcji i wyszukiwania za pomocą rejestrów oraz być dostępna niezależnie od wykorzystywanych mechanizmów transportu danych. Oprócz przedstawionych powyżej wymagań statycznych usługa powinna spełniać wymagania dynamiczne związane z zachowaniem parametrów QoS (Quality of Service) i kontraktu SLA niezależnie od kontekstu (na przykład szczytu zapotrzebowania na energię lub szczytu natężenia ruchu sieciowego), czyli zbioru parametrów środowiskowych w którym działa, co nie jest proste do realizacji. Wynika to z faktu, że coraz więcej współczesnych systemów komputerowych działa w dynamicznie zmieniających się środowiskach, co oznacza między innymi konieczność uwzględnienia zmiany kontekstu, w którym działa usługa, wynikającej ze zmiennej dostępności zasobów. Dlatego złożonym problem, który dotąd nie był szerzej badany jest zapewnienie zachowania parametrów usługi, w tym przede wszystkim parametrów QoS i kontraktu SLA, w systemach komputerowych o zmiennej dostępności zasobów. Brak rozwiązań w tym zakresie był główną motywacją prac badawczych przeprowadzonych przez autora. Celem zrealizowanych przez autora badań było opracowanie metod i mechanizmów pozwalających na zachowanie parametrów usług w tym parametrów QoS i kontraktu SLA w systemach komputerowych o zmiennej dostępności zasobów. W wyniku tych prac, autor opracował metody i mechanizmy doposażenia usługi w dodatkową funkcjonalność, obejmującą także elementy inteligencji, która pozwoliła na adaptowanie się usługi do kontekstu, w którym się znajduje z zachowaniem jej parametrów w szczególności związanych z jakością usługi.

Prezentacja z seminarium dostępna jest tutaj.


6 XII 2017 (g. 13:15)

mgr inż. Małgorzata Sadowska
Katedra Inżynierii Oprogramowania, Politechnika Wrocławska

Temat: Wykorzystanie ontologii dziedzinowych w OWL 2 w procesie walidacji diagramów klas UML 

Ontologie dziedzinowe stanowią źródło wiedzy na temat konkretnych dziedzin i wycinków rzeczywistości. W ramach pracy nad rozprawą doktorską zaprojektowano i zaimplementowano prototyp narzędzia przeznaczonego do walidacji diagramów klas UML. Narzędzie w procesie walidacji wykorzystuje ontologie dziedzinowe wyrażone w OWL 2 w celu automatycznego rozpoznania czy narysowany diagram klas jest zgodny czy sprzeczny z wybraną przez użytkownika ontologią. Podczas prezentacji przedstawiona zostanie metoda walidacji, prototyp narzędzia oraz przykłady jego zastosowań.


8 XI 2017 (g. 13:15)

mgr inż. Aleksander Mariański
Katedra Inżynierii Oprogramowania, Politechnika Wrocławska

Temat: Zastosowanie analitycznego procesu hierarchicznego do problemu selekcji usługi webowej z wykorzystaniem zmiennych losowych

Analityczny proces hierarchiczny jest znaną, rozwijaną i szeroko stosowaną metodą podejmowania decyzji. W ramach pracy doktorskiej skonstruowano modułowy probabilistyczny analityczny proces hierarchiczny. Proces ten pozwala na podejmowanie decyzji w sytuacjach, gdzie istnieją dane statystyczne dotyczące wybranych kryteriów. Proces ten szczególnie można zastosować w problemach z dużą liczbą wariantów decyzyjnych oraz gdy wartości wybranych kryteriów wyraża się poprzez zmienne losowe. W prezentacji zostanie przedstawiona analiza literaturowa, opis probabilistycznego analitycznego procesu hierarchicznego, rozwiązanie problemu selekcji usługi webowej za pomocą procesu oraz inne możliwe zastosowania procesu w rzeczywistych problemach.


12 IV 2017 (g. 13:15)

dr Krzysztof Wnuk
Assistant Professor, BTH, Sweden

Temat: Inżynieria Wymagań 2.0: wyzwania i możliwości

Ta prezentacja analizuje zmiany, które nastąpiły w ostatnim dziesięcioleciu w dziedzinie analizy wymagań oraz definicji i zarządzania produktami software’owymi. Przeanalizujemy wyzwania oraz możliwości podjęcia tych wyzwań, zarówno przez naukowców jak i przemysł. Dyskusja skupi się na analizie informacji od użytkowników, ustalaniu odpowiedniej strategi współpracy w Ekosystemach software’owych, zrozumieniu kiedy wymagania stają się „nieaktualne” lub tracą swoją „innowacyjność”. Przeanalizujemy również nowe wyzwania w definiowaniu i realizacji wymagań nie-funkcjonalnych oraz ich wpływ na udaną realizację produktów software’owych. Prezentacja zakończy się dyskusją o modelach współpracy między przemysłem a uczelniami oraz sposobami na zacieśnienie tej współpracy.


5 IV 2017 (g. 13:15)

dr inż. Maciej Malawski
Katedra Informatyki, Wydział IET, Akademia Górniczo-Hutnicza w Krakowie

Temat: Zastosowanie chmur obliczeniowych dla aplikacji naukowych

Współczesna nauka wymaga coraz więcej zasobów służących do obliczeń oraz przetwarzania i przechowywania danych. Chmury obliczeniowe, bazujące na wcześniejszych rozwiązaniach takich jak systemy rozproszone i środowiska gridowe, są potencjalnym źródłem zasobów dla tego typu aplikacji naukowych. Przykładami, na których skupia się praca są aplikacje komponentowe, aplikacje typu grafy zadań (workflow) i ich zespoły (ensemble), a także aplikacje typu bag-of-tasks. Zarządzanie zasobami w takim środowisku powinno uwzględniać takie czynniki jak wydajność i koszt, a także inne charakterystyki infrastruktury chmur, jak związane z nią opóźnienia, zmienność, podatność na awarie, ziarnistość dostępu do zasobów i ich rozliczania oraz sposób dostępu do danych. Głównymi osiągnięciami prac badawczych były m.in.: opracowanie modelu komponentowego do obliczeń naukowych w chmurach, opracowanie modeli aplikacji i infrastruktur dla hybrydowych chmur obliczeniowych, opracowanie modeli optymalizujących koszt wykonania aplikacji w chmurze, a także opracowanie nowych algorytmów dotyczących dostarczania zasobów i szeregowania zadań. Zaprezentowane zostaną również wyniki badań eksperymentalnych, w tym pomiar wydajności w chmurach, stworzenie symulatora dla zbiorów grafów zadań, potwierdzenie efektywności i wydajności modeli optymalizacyjnych oraz algorytmów w szerokim zakresie parametrów, a także uzyskanie charakterystyk kosztowo-wydajnościowych. Wyniki badań mogą prowadzić do lepszego zrozumienia działania i lepszego wykorzystania nowoczesnych zasobów obliczeniowych.

Slajdy z wykładu dostępne są tutaj.


1 III 2017 (g. 13:15)

mgr inż. Przemysław Plecka
Politechnika Koszalińska

Temat: Metoda przedwdrożeniowego wymiarowania zmian oprogramowania wybranej klasy systemów ERP

Streszczenie: Znane metody szacowania kosztów oprogramowania ERP nie uwzględniają zebranego i kumulującego się doświadczenia płynącego z wcześniejszych wdrożeń. W tym kontekście, celem prowadzonych badań jest opracowanie nowej, konkurencyjnej metody wymiarowania zmian oprogramowania, gwarantującej dokładniejsze wyniki i nie kosztowniejszej w realizacji, niż inne aktualnie dostępne metody. W wyniku prowadzonych badań zdefiniowano metamodel parametrów wdrożenia wraz z operacjami, jakie można w nim przeprowadzić, na jego podstawie zdefiniowano model kosztów wdrożenia z rozmytymi właściwościami składowych – fuzzy OMKW, który spełnia w większym stopniu niż znane modele zakładane warunki jakości danych oraz określono autorską metodę szacowania kosztów wdrożenia – fuzzy SKW; wykorzystującą rozmyty model fuzzy OMKW. Przeprowadzono badania weryfikujące przydatność metody fuzzy SKW. Wyniki badań bezpośrednio potwierdzają realizację celu pracy.

Slajdy z wykładu dostępne są tutaj.


11 I 2017 (g. 13:15)

mgr inż. Tomasz Lewowski
Politechnika Wrocławska

Temat: Zastosowanie analizy statycznej kodu do wykrywania niespójności wzorców w kodzie źródłowym

Streszczenie: Statyczna analiza jest popularnym mechanizmem wykrywania potencjalnych defektów i nietypowych wzorców w kodzie źródłowym programu. Dotychczasowe badania w zakresie analizy statycznej skupiają się w większości na próbie dopasowywania znanych strukturalnych wzorców błędnego kodu do źródeł analizowanych aplikacji, analizie przepływu danych w celu wykrycia sytuacji anormalnych lub na w pełni sformalizowanym dowodzeniu własności programu.Zaprezentowana zostanie koncepcja heurystycznego zastosowania analizy statycznej w celu odkrycia niskopoziomowych założeń architektonicznych i konwencji programistycznych stosowanych w danym projekcie, które mogły zostać zagubione w czasie rozwoju aplikacji – na przykład z powodu zmian w zespole projektowym. Krótko przedstawione zostaną możliwe zastosowania narzędzia dostarczającego tego typu dane.


 21 XII 2016 (g. 13:15)

dr inż. Piotr Zabawa
Politechnika Krakowska im. Tadeusza Kościuszki

Temat: Paradygmat metamodelowania sterowanego kontekstem (CDMM-P)

Streszczenie: W odróżnieniu od powszechnie stosowanego w definiowaniu języków modelowania (w metamodelowaniu) paradygmatu klasowo-obiektowego, w którym wszystkie elementy metamodelu zdefiniowane są w czasie kompilacji (compile-time), prezentowany nowy paradygmat metamodelowania sterowanego kontekstem (CDMM-P) pozwala na definiowanie grafowego języka modelowania w czasie wykonania (run-time). Podejście to znacząco zwiększa swobodę w definiowaniu nowych języków modelowania, pozwala na kastomizację istniejących (np. UML), ułatwia wprowadzanie zmian do języków modelowania (własnych wcześniej zdefiniowanych), ułatwia przeprowadzanie procesu ewolucyjnego nadążania modelami za zmieniającym się metamodelem (evolutionary meta-modeling). Jako pierwsze, podejście to umożliwia generowanie w czasie wykonania narzędzia do sterowanego modelem generowania oprogramowania oraz jego zasobów – struktura tego narzędzia odzwierciedla strukturę metamodelu. W porównaniu ze standardami Object Management Group (www.omg.org) prezentowane podejście stanowi daleko idące ich uogólnienie, a standardy Model-Driven Architecture (MDA) są przykładem jednej z wielu możliwości zastosowań CDMM-P. Z punktu widzenia ontologii i jej standardów, takich jak RDF lub OWL prezentowane rozwiązanie wpisuje się w ontologie otwarte (jednak z restrykcjami na strukturę modelu wynikającymi ze struktury metamodelu), które wcześniej nie były wykorzystywane w inżynierii oprogramowania.

Zastosowanie CDMM-P pozwala na pokonanie wielu współczesnych ograniczeń w metamodelowaniu, w tym wyeliminowanie bariery związanej z długotrwałym procesem standaryzowania w OMG uniemożliwiającym wykorzystywanie nowych technologii, długotrwały brak wsparcia narzędziowego (w podejściu Model-Driven Design) dla tych technologii, brak możliwości wprowadzania do metamodelu pojęć funkcjonujących obecnie jedynie jako koncepcje.

Slajdy z wykładu dostępne są tutaj.


30 XI 2016 (g. 13.15)

dr hab. inż. Piotr Kosiuczenko, prof. nadzw.
Wojskowa Akademia Techniczna

Temat: Specyfikacje kontraktowe jako przedmiot badań

Streszczenie: Języki kontraktowej specyfikacji, jak. np. JML i OCL, są szeroko znane i stosowane. Są też przedmiotem nauczania na kierunku informatyka. Mimo tego, ich podstawy, implementacja i zastosowania wciąż wymagają badań. W tym wystąpieniu przedstawimy wyniki naszych badań dotyczących specyfikacji kontraktowych. Omówimy pewne problemy związane z implementacją, w szczególności z implementacją operatora @pre i proponowane rozwiązanie. Powiemy o problemie specyfikacji części niezmienniczej w języku OCL. W tym wystąpieniu skoncentrujemy się na problemie wizualizacji specyfikacji kontraktowej za pomocą tzw. maszyn stanu języka UML i przedstawimy metodę syntezy maszyn stanów ze specyfikacji kontraktowych.


9 XI 2016 (g.13.15)

dr hab. inż. Krzysztof Krawiec, prof. nadzw.
Politechnika Poznańska

Temat: Behavioral Program Synthesis with Genetic Programming

Streszczenie: A running program may exhibit complex behavior, not only in terms of the produced output, but also regarding the execution states it traverses. In program synthesis as practiced with conventional genetic programming, only a fraction of that behavior, usually compressed into a scalar fitness, is used to navigate the search space. This ‚evaluation bottleneck’ leaves a search algorithm underinformed about the actual and potential qualities of candidate programs. Behavioral program synthesis aims at providing search algorithms with richer information on a program’s operating characteristics, and so making them better informed and thus more efficient. In this talk, I will present the motivations and interesting features of the behavioral perspective, show how the existing approaches fit into it, and discuss the implications for program synthesis and automated design of algorithms.


2 XI 2016 (g.13.15)

dr hab. inż. Tadeusz Gospodarek, prof. nadzw.
Wyższa Szkoła Bankowa we Wrocławiu

Temat: Od koncepcji niematematycznych zarządzania do formalnych reprezentacji informacyjnych w systemach ERP

Streszczenie: Modelowanie systemów informacyjnych wspomagających podejmowanie decyzji związanych z ekonomią lub zarządzaniem dotyczy równocześnie dwóch warstw logicznych. Z jednej strony konieczne jest stworzenie modelu semantycznego części ekonomicznej, który w sposób jednoznaczny pozwala utworzyć reprezentację numeryczną kryterium decyzyjnego lub informację syntetyczną. Równolegle konieczne jest utworzenie modeli informatycznych przetwarzania danych na różnych poziomach interoperacyjności. Obie, te procedury podlegają modelowaniu kaskadowemu, od modelu ontycznego do syntaktycznego. Najważniejszym problemem staje się uzyskanie interoperacyjności modeli na poziomie semantycznym. Najważniejszym problemem do rozwiązania na tym poziomie staje się uzyskanie równoważności semantycznej między modelem ekonomicznym i modelem IT. Przykładem takiego ujęcia są systemy ERP i stały problem z tym związany: czy to organizacja ma się dopasować do technologii IT, czy też odwrotnie? Część wykładu będzie poświęcona zagadnieniom dopasowania kultury organizacyjnej do poziomu technologii IT w kontekście modeli adaptatywnych na poziomie semantycznym.

Slajdy z wykładu dostępne są tutaj.