Skip to main content

Aktualności Instytutu Podstaw Informatyki PAN

CLARIN-PL - Technologie IT w naukach społecznych i humanistycznych


Więcej o projekcie można znaleźć na stronie: Clarin Biz

Politechnika Wrocławska jest liderem konsorcjum polskiej części ogólnoeuropejskiej struktury naukowej CLARIN, obejmującej cyfrowe archiwa tekstowe i narzędzia do ich automatycznej analizy. Umożliwia to badaczom nauk humanistycznych I ścisłych pracę z dużymi zbiorami tekstów. Stanowi również olbrzymią pomoc dla naukowców z innych obszarów nauki. Z nowoczesnych narzędzi opracowanych w ramach projektu mogą korzystać także podmioty komercyjne. CLARIN-PL jest realizowany dzięki dofinansowaniu ze środków Programu Operacyjnego Inteligentny Rozwój, które otrzymał w ramach konkursu ogłoszonego przez Ośrodek Przetwarzania Informacji - Państwowy Instytut Badawczy.

CLARIN-PL z certyfikatem Core Trust Seal

CLARIN to złożony system centrów technologicznych dający dostęp do zasobów, narzędzi i aplikacji badawczych. Jego głównym celem jest umożliwienie badań naukowych w obszarze nauk humanistycznych i społecznych z wykorzystaniem technologii językowej. Dzięki otwartemu dostępowi do większości komponentów Centrum Technologii Językowych, wpływa on również na inne obszary nauki. Z nowoczesnych narzędzi opracowanych w ramach projektu mogą korzystać także podmioty komercyjne, które potrzebują aplikacji do przetwarzania języka naturalnego. Warto podkreślić, że Centrum Technologii Językowych posiada światowy certyfikat repozytorium danych badawczych Core Trust Seal.

- Głównym celem CLARIN-PL Jest dostarczenie polskim naukowcom wszelkich środków potrzebnych do prowadzenia badań wymagają-cych wykorzystania metod przetwarzania dużych ilości tekstów. Nasza infrastruktura jest unikatowa na skalę światową ponieważ powstała specjalnie z myślą o języku polskim i dostarcza autorskich rozwiązań zapewniających precyzyjne wyniki dla badań na tekstach sporządzonych w tym języku. Nasze działania mają na celu udostępnianie zasobów językowych oraz elektronicznych narzędzi do automatycznego przetwarzania języka naturalnego badaczom z różnych dyscyplin naukowych, a w szczególności z dziedziny nauk humanistycznych i społecznych - mówi dr hab. inż. Maciej Piasecki z Politechniki Wrocławskiej, kierownik projektu CLARIN-PL.

Więcej…CLARIN-PL - Technologie IT w naukach społecznych i humanistycznych

Grant z programu PRELUDIUM dla mgr. Sebastiana Zawady


Mgr Sebastian Zawada, asystent w Zespole Inżynierii Lingwistycznej otrzymał grant z programu PRELUDIUM, finansowanego przez Narodowe Centrum Nauki. W ramach 21 edycji programu PRELUDIUM wpłynęło 756 wniosków, z czego 97 otrzymało dofinansowanie.

Głównym celem projektu pt. "Składniowo-semantyczna analiza leksemów o kształcie TO" jest odpowiedź na pytanie, ile jest leksemów – czyli jednostek słownikowych – o kształcie TO w języku polskim. Forma to jest zarówno jednym z najczęstszych, jak i najbardziej kłopotliwych wyrazów w polszczyźnie. Analizy lingwistyczne dotyczące takich form dochodzą do różnych wniosków, a informacje gramatyczne podawane w słownikach niekiedy znacznie się różnią. Co więcej, forma ta pełni wiele różnych funkcji składniowych i semantycznych, a także jest uwikłana w ciekawe zjawiska językowe: funkcjonuje jako łącznik w zdaniach takich jak (1) oraz jest zaangażowana w tematyczno-rematyczną organizację zdania (por. (2)–(3)). Mowa tu o tym, że w zdaniu (2) forma To wskazuje remat – informację nową, w omawianym zdaniu reprezentowaną przez wyraz akcentowany: Janek – a w zdaniu (3) to podkreśla tematyczny status wyrazu Janek (który może być sparafrazowany za pomocą wyrażenia Jeśli chodzi o Janka. . .).

(1) Janek to świetny lekarz.
(2) To Janek kupił ten prezent.
(3) Janek to pracuje w szkole

Zdania (1)–(3) to zaledwie część znanych w lingwistyce użyć omawianego wyrazu. Funkcjonuje on również m.in. jako zwykły zaimek wskazujący oraz spójnik. Mimo wielu analiz poświęconych formom to wciąż nie jest jasne, ile należy wyróżnić leksemów o kształcie TO, jakie są ich składniowe i semantyczne właściwości oraz gdzie przebiega granica między nimi. Poprzez analizę empiryczną (korpusową i ankietową), składniową oraz semantyczną – ze szczególnym uwzględnieniem zjawisk z zakresu struktury tematyczno-rematycznej – będę starał się wypełnić tę lukę badawczą. W projekcie zakłada się, że gruntowne badania empiryczne omawianych form doprowadzą do reewaluacji dotychczasowych analiz, które w ogromnej mierze bazują na przykładach skonstruowanych przez lingwistów. Co więcej, eksploracyjne badania korpusowe pozwolą na dostrzeżenie wielu różnych użyć to, potencjalnie niedostrzeżonych we wcześniejszych pracach. Weryfikacja dotychczasowych analiz, a także nowych hipotez i uogólnień pozwoli na sformalizowanie składni różnych konstrukcji z formami to. Na bazie rzetelnie ustalonej składni będzie budowana analiza semantyczna biorąca pod uwagę strukturę tematyczno-rematyczną. Takie kompleksowe badania pozwolą na zaproponowanie dobrze umotywowanej klasyfikacji leksemów TO, co będzie stanowiło istotny wkład do polskiej lingwistyki oraz potencjalny punkt odniesienia dla leksykografów.

System ANSI – sztuczna inteligencja w wykrywaniu podwójnej jakości produktów


Artykuły prasowe o tej tematyce:

Inne doniesienia medialne:

Radio TokFM: Audycja pt. "Poranek Radia TOK FM - Weekend" Data emisji: 2022-11-13 08:20, Prowadzący: Wojciech Muzal Rozmowa z Łukasz Kobyliński (IPI PAN): Podcast radia TokFM; 13.11.2022

Radio dla Ciebie: Audycja pt. "Z innej planety" Data emisji: 2022-12-20 08:20, Prowadzący: Wojciech Muzal Rozmowa z Łukasz Kobyliński (IPI PAN): Podcast Radia dla Ciebie; 20.12.2022

Więcej o projekcie można znaleźć na stronie lidera: opi.org.pl/projekt/identyfikowanie-opinii-konsumentow-(...)-dual-quality-przy-uzyciu-systemu-opi-pib-i-ipi-pan/

Podwójna jakość produktów (dual quality) to problem, który nadal istnieje na rynku, mimo że prawo unijne zabrania takich praktyk. Ten sam produkt kupiony w Niemczech, Szwecji czy Polsce powinien być tej samej jakości, niestety nadal się zdarza, że nieuczciwi producenci w naszym kraju sprzedają towar o gorszych parametrach jakościowych. Z pomocą w walce z niedozwolonymi praktykami konsumenckimi przychodzi sztuczna inteligencja. Eksperci z Ośrodka Przetwarzania Informacji - Państwowego Instytutu Badawczego (OPI) wraz z naukowcami z Instytutu Podstaw Informatyki Polskiej Akademii Nauk (IPI PAN) zaprojektowali system informatyczny ANSI. Służyć on będzie do identyfikowania opinii konsumentów na temat bezpieczeństwa produktów i ich jakości, z uwzględnieniem dual quality. System powstanie w ramach projektu sfinansowanego przez Narodowe Centrum Badań i Rozwoju (NCBR), w ramach programu INFOSTRATEG III.

Sztuczna inteligencja pomaga chronić prawa konsumenta
W czasach zglobalizowanego rynku, na którym konsument ma dostęp do znacznego wolumenu produktów i usług, wykrycie nieuczciwej praktyki handlowej nie jest proste. Oszustom dużo łatwiej ukryć się przed odpowiednimi służbami. Możliwości manualnej analizy pojedynczego człowieka, a nawet grupy ludzi, są ograniczone. Pracownicy odpowiednich instytucji nie są w stanie efektywnie przeanalizować wszystkich możliwych produktów dostępnych na rynku. Na szczęście z pomocą przychodzi sztuczna inteligencja (SI), która coraz częściej efektywnie wspiera pracę człowieka. – Można powiedzieć, że OPI staje się ekspertem w dostarczaniu nowoczesnych narzędzi do ochrony praw konsumenta. Trwają prace nad wdrożeniem systemu dla UOKiK, który wykrywa zapisy niedozwolone w umowach. Teraz wspólnie z ekspertami z IPI PAN dostaliśmy dofinansowanie z programu INFOSTRATEG III na opracowanie narzędzia, które skutecznie będzie walczyć m.in. z podwójną jakością produktów. W obu tych przypadkach wykorzystujemy sztuczną inteligencję. Dzięki niej możemy lepiej dbać o prawa konsumentów – mówi dr inż. Jarosław Protasiewicz, dyrektor Ośrodka Przetwarzania Informacji. Prace nad opracowaniem i wdrożeniem systemu ANSI zostaną zakończone najpóźniej w 2025 roku. Nowoczesne narzędzie będzie służyć do identyfikowania opinii konsumentów na temat bezpieczeństwa produktów i ich jakości, z uwzględnieniem dual quality. – Dzięki zastosowaniu najnowszych metod przetwarzania języka naturalnego jesteśmy w stanie zidentyfikować produkty, których jakość w Polsce powinna być dodatkowo zbadana w laboratorium, nie poprzez bezpośrednie analizowanie każdego fizycznego produktu z osobna, ale pośrednio, na podstawie opinii o tych produktach, dostępnych w internecie. Jest to bardzo ciekawe zastosowanie metod sztucznej inteligencji, które w pozytywnym sensie wykorzystuje fakt, że tak duża część naszego życia przeniesiona jest obecnie do sfery wirtualnej – mówi dr Łukasz Kobyliński, adiunkt w Zespole Inżynierii Lingwistycznej IPI PAN, kierownik zadań IPI PAN w projekcie ANSI.

ANSI oparto na wielojęzycznych danych
Narzędzie OPI i IPI PAN będzie działać w oparciu o metody i techniki z zakresu sztucznej inteligencji, szczególnie uczenia maszynowego i głębokiego. System będzie służyć do identyfikowania produktów na podstawie wielonarodowych preferencji i wielojęzycznych opinii konsumentów opublikowanych w internecie. Po wnikliwej analizie posłużą one do wytypowania i utworzenia rekomendacji – skierowania bądź też nie – danego produktu do weryfikacji laboratoryjnej. Metody i techniki te będą zastosowane do utworzenia następujących modeli: wydobywania opinii z internetu i ich strukturalizowania, określania języka – w jakim napisana została opinia, analizy sentymentu, a także tworzenia rekomendacji dotyczącej skierowania do weryfikacji laboratoryjnej. W wyniku projektu, sfinansowanego przez Narodowe Centrum Badań i Rozwoju (NCBR) w ramach programu INFOSTRATEG III, opracowane zostanie unikatowe rozwiązanie. – Nasze narzędzie pozwoli na identyfikowanie opinii konsumentów na podstawie analizy wielojęzycznych zasobów internetowych, takich jak: portale aukcyjne, zakupowe blogi, fora, strony różnych instytucji nadzorujących przestrzeganie prawa z zakresu ochrony konsumentów, witryny organizacji konsumenckich itp. Rozwiązanie będzie umożliwiało identyfikowanie produktów, w których zaobserwowano różnice jakościowe w zależności od rynku, na który są produkowane i dostarczane. ANSI z pewnością będzie stanowiło wsparcie przede wszystkim dla pracowników UOKiK – mówi dr inż. Marcin Mirończuk z Laboratorium Inteligentnych Systemów Informatycznych w OPI.

Więcej…System ANSI – sztuczna inteligencja w wykrywaniu podwójnej jakości produktów

Rozległe zaburzenia metabolizmu w cukrzycy typu 2


Korzystając z najnowocześniejszych technik, naukowcy z Uniwersytetu w Uppsali wykazali, że metabolizm u pacjentów z cukrzycą typu 2 i stanem przedcukrzycowym był znacznie bardziej zaburzony niż wcześniej znany i że różnił się między narządami i nasileniem choroby. Badanie, będące efektem współpracy m.in. z Uniwersytetem Kopenhaskim, AstraZeneca i Instytutem Podstaw Informatyki Polskiej Akademii Nauk, zostało opublikowane w czasopiśmie Cell Reports Medicine.

Najbardziej typowymi zmianami u osób z cukrzycą typu 2 są niewystarczające wydzielanie insuliny i zmniejszona wrażliwość na insulinę w różnych narządach. Aby zbadać, co dzieje się w tych narządach, gdy rozwija się cukrzyca typu 2, naukowcy w obecnym badaniu przyjrzeli się białkom zarówno w wysepkach komórkowych w trzustce, w której wytwarzana jest insulina, jak i w głównych tkankach, na które działa insulina, a mianowicie wątrobie, mięśniach szkieletowych, tłuszczu i krwi.

Naukowcy porównali białka w próbkach od osób z cukrzycą typu 2, stanem przedcukrzycowym, czyli etapem przed w pełni rozwiniętą cukrzycą typu 2 i bez cukrzycy. Wyniki wykazały znacznie więcej zaburzeń w szlakach metabolicznych niż wcześniej było wiadomo. Istniała również korelacja między zmianami a różnymi stadiami choroby.

"Wykryliśmy wiele poziomów białka, które były wyższe lub niższe niż normalnie w tkankach od ludzi na różnych etapach choroby. Osoby ze stanem przedcukrzycowym wykazywały poważne zmiany związane ze stanem zapalnym, krzepnięciem i układem odpornościowym w wyspach trzustkowych. W pełni rozwiniętej cukrzycy typu 2 wystąpiły bardziej rozpowszechnione nieprawidłowości, na przykład w metabolizmie lipidów i glukozy oraz w produkcji energii w wątrobie, mięśniach i tłuszczu "- mówi profesor Claes Wadelius, który koordynował badanie.

Badanie opiera się na próbkach tkanek pobranych od dawców na różnych etapach choroby i zdrowych osób. Korzystając z nowych technik, naukowcy mogli określić ilościowo tysiące białek z każdego narządu, a tym samym uzyskać obraz metabolizmu, który wcześniej nie był możliwy. Techniki pomiaru białek ewoluowały szybko w ostatnich latach, a naukowcy z Uniwersytetu Kopenhaskiego, którzy uczestniczyli w badaniu, są światowymi liderami w tej dziedzinie co umożliwiło uzyskanie najlepszych możliwych wyników.

Podsumowując, odkrycia pokazują wysoce zaburzony metabolizm w różnych szlakach w badanych narządach i na różnych etapach choroby. Dane wskazują na nowe potencjalnie przyczynowe mechanizmy choroby, które można dalej badać w poszukiwaniu nowych sposobów zapobiegania lub leczenia cukrzycy typu 2. Wyniki te mogą również wspierać rozwój prostych testów, które mogą zidentyfikować osoby z wysokim ryzykiem cukrzycy i jej powikłań, a także wskazać, który rodzaj interwencji jest najlepszy dla danej osoby.

Diamanti et al., Szlaki metaboliczne specyficzne dla narządów odróżniają stan przedcukrzycowy, cukrzycę typu 2 i normalne tkanki, Cell Reports Medicine (2022), doi: 10.1016/j.xcrm.2022.100763

Polskim uczestnikiem tego badania był professor Jan Komorowski, z Uniwersytetu w Uppsali i profesor wizytujący w Instytucie Podstaw Informatyki Polskiej Akademii Nauk

PTBI 2022 organizowane przez Instytut Podstaw Informatyki PAN


Logotyp ptbi

 

Zjazd PTBI wrzesień 2022
Fot. Archiwum PTBI

Tegoroczne Sympozjum Polskiego Towarzystwa Bioinformatycznego odbywało się w dniach 14-16 września w Instytucie Podstaw Informatyki PAN w Warszawie. Jest to cykliczne wydarzenie zrzeszające naukowców z całego świata na każdym etapie kariery naukowej, zarówno studentów, jak i doświadczonych badaczy. Przez trzy dni konferencji uczestnicy mieli okazję wysłuchania ponad 50 prezentacji. Zakres konferencji obejmował m.in.: modelowanie i badania sieci metabolicznych, biologię strukturalną, analizy genetyczne, machine learning oraz big data.

Jak co roku do pełnienia roli Keynote Speakers zostali zaproszeni wybitni międzynarodowi naukowcy łączący w swoich badaniach najnowsze techniki doświadczalne z nowatorskimi metodami analizy otrzymanych danych. Wykład rozpoczynający pierwszą sesję wygłosiła prof. dr Irmtraud Margret Meyer, która przybliżyła słuchaczom temat regulacji genów in vivo oraz metod obliczeniowych używanych do analiz transkryptomu. Drugiego dnia gościliśmy dr Hagena Tilgnera z Weill Cornell Medicine w Nowym Jorku, który zaprezentował nam swoje najnowsze wyniki dotyczące praktycznych zastosowań innowacyjnych metod Single-cell isoform RNA sequencing (ScISOr-Seq1) oraz Single-nuclei isoform RNA sequencing (SnISOr-Seq2). Ostatnią sesję prezentacji rozpoczął profesor Jacek Majewski, specjalizujący się w badaniu dysregulacji epigenetycznej w chorobach nowotworowych z McGill University Genome Centre w Kanadzie. W swoim wykładzie „Interplay between epigenetic modifications in normal development and disease” przedstawił zależności pomiędzy epigenetycznymi modyfikacjami, a rozwijającą się chorobą nowotworową u dzieci.

Podczas tegorocznej edycji spotkania mogliśmy również posłuchać dwóch zaproszonych gości z Polski. Dr Paweł Teisseyre z Instytutu Podstaw Informatyki PAN przedstawił prezentację dotyczącą zagadnień uczenia z niepełną informacją (positive-unlabeled learning) w bioinformatyce, a dr Paweł Krupa z Instytutu Fizyki PAN zaprezentował możliwości i ograniczenia metod biofizyki obliczeniowej i bioinformatyki strukturalnej.

Honorowym członkiem PTBI w 2022 roku został wybitny biolog, prof. dr hab. Janusz Bujnicki, kierownik Laboratorium Bioinformatyki i Inżynierii Białka w Międzynarodowym Instytucie Biologii Molekularnej i Komórkowej w Warszawie oraz zespołu w Pracowni Bioinformatyki na Wydziale Biologii Uniwersytetu im. Adama Mickiewicza w Poznaniu, jeden ze współzałożycieli Polskiego Towarzystwa Bioinformatycznego. Podczas konferencji zaprezentował znakomity wykład pod tytułem „Can science contribute to solving really important problems?", w którym poruszone zostały takie zagadnienia jak komunikacja naukowa oraz nauka w debacie publicznej.

W trakcie Sympozjum jury w składzie, którego zasiedli członkowie PTBI, wyłoniło zwycięzców tegorocznego konkursu na najlepszą wygłoszoną prezentację oraz plakat. W tej edycji Sympozjum zwyciężyli:
w kategorii najlepsza prezentacja:

  • nagroda główna: mgr Karolina Sienkiewicz za prezentację pt. „Detecting molecular subtypes from multi-omics datasets using SUMO",
  • wyróżnienie: mgr Michał Ciach za prezentację zatytułowaną "A modern approach to Mass Spectrometry Imaging data segmentation with Spatial-DGMM and masserstein".

w kategorii najlepszy plakat naukowy nagrody ex aequo otrzymali:

  • mgr Kaja Gutowska - „On anti-occurrence of subsets of transitions” oraz
  • Łukasz Piórecki -„Comparative study on the impact of model’s architecture and training method on ANN system performance”.

Zachęcamy do dołączenia do grona członków Polskiego Towarzystwa Bioinformatycznego i udziału w następnej edycji Sympozjum, które w 2023 roku odbędzie się w Gliwicach.


© 2021 INSTYTUT PODSTAW INFORMATYKI PAN | Polityka prywatności | Deklaracja dostępności