Digitalizacja procesów biznesowych może być sprawnie wspierana dzięki platformom low-code – narzędziom służącym do wizualnego budowania aplikacji biznesowych.
Dzięki prostemu prototypowaniu, implementacji nowych procesów oraz łatwej modyfikacji istniejących rozwiązań, platformy low-code, takie jak nAxiom, umożliwiają szybkie dostosowanie używanych przez firmę aplikacji do zmieniających się warunków rynkowych.
Indywidualne rozwiązania, budowane przez klientów na platformie nAxiom pozwalają na zdobycie przewagi konkurencyjnej.
Zastosowanie technologii low-code jest mniej czasochłonne i kosztowne w porównaniu z tradycyjnymi metodami wytwarzania oprogramowania.
Platformy niskokodowe z powodzeniem sprawdzają się w każdej działalności m.in. w produkcji i logistyce. Są wykorzystywane przez przedsiębiorstwa zarówno do powtarzalnych, złożonych procesów biznesowych jak i do niepowtarzalnych, niestandardowych projektów.
„Kluczowym elementem budowania przewagi konkurencyjnej jest rozszerzanie funkcjonalności głównych systemów informatycznych, co zazwyczaj jest procesem kosztownym i długotrwałym.
Z pomocą przychodzi platforma low-code nAxiom, która powstała by wspierać zarządzanie ludźmi, procesami i danymi. Jest ona idealną odpowiedzią na potrzeby przedsiębiorstw w zakresie digitalizacji. Platforma nAxiom pozwala na budowanie aplikacji biznesowych, indywidualnie dopasowanych do wymagań przedsiębiorstwa, umożliwiając w ten sposób osiągnięcie konkurencyjnej pozycji rynkowej.” – mówi Dariusz Pruchnik, Dyrektor Zarządzający w nAxiom Sp. z o.o.
E-fakturowanie stało się obecnie globalnym trendem. Firmy na całym świecie coraz częściej korzystają z e-faktur, aby zaoszczędzić czas i koszty związane z tradycyjnymi fakturami. Robią to, gdyż widzą w tym wymierne korzyści, ale często także dlatego, że muszą – wymagają tego od nich regulacje prawne wprowadzane w ich krajach.
Obecnie już w ponad 70 państwach obowiązują pewne regulacje dotyczące e-dokumentów, a według prognoz do 2025 r. około 80% firm będzie korzystać wyłącznie z e-faktur. Katalizatorem zmian w zakresie digitalizacji stanie się KSeF, czyli Krajowy System e-Faktur. Od 1 lipca 2024 będzie obligatoryjny, co zrewolucjonizuje wymianę faktur w polskich przedsiębiorstwach.
Warto jednak rozważyć wkroczenie w świat e-faktur nie czekając na KSeF. Spowoduje to uwolnienie potencjału automatyzacji i przyniesie, znacznie wcześniej, korzyści płynące z wymiany e-faktur. Odpowiednie przygotowanie da również wsparcie w obszarach, których KSeF docelowo wspierać nie będzie, takich jak obsługa faktur przychodzących od kontrahentów zagranicznych oraz możliwość dystrybucji faktur do odbiorców, również z załącznikami.
Tam, gdzie kończą się możliwości KSeF, wkracza Pagero, umożliwiając wymianę także tych dokumentów biznesowych nieobsługiwanych przez KSeF. Otwarta sieć biznesowa Pagero Network pozwala dotrzeć do partnerów biznesowych na całym świecie – niezależnie od ich lokalizacji, branży czy systemów. Kontrahenci, tak lokalni jak i zagraniczni, mogą otrzymywać faktury w oczekiwanym przez siebie formacie. Jeśli będzie to e-faktura, otrzymają ją od razu po wystawieniu, co przełoży się na szybsze płatności i lepsze planowanie cash-flow. Do tych, którzy nie są jeszcze na e-fakturę gotowi, Pagero dostarczy fakturę mailem w postaci PDF. Z Pagero Network korzysta już ponad 80 tys. klientów w 140 krajach, a w jej zasięgu jest obecnie ponad 14 mln firm.
Postępujący trend cyfryzacji z całą pewnością się nie zatrzyma. Warto przystąpić do niego jak najszybciej i od razu w pełni.
Technologie sztucznej inteligencji (AI) oraz uczenia maszynowego (ML) zmieniają biznes praktycznie każdego dnia – tak jak często pojawiają się nowe narzędzia i usługi rozszerzające zakres ich zastosowań. PwC szacuje, że wpływ tych technologii na globalną gospodarkę spowoduje do 2030 roku jej wzrost o około 15.7 biliona dolarów (1).
Warto wziąć pod uwagę wykorzystanie tych nowoczesnych rozwiązań jako elementu strategii przedsiębiorstwa. Skutecznie i mądrze wdrożone przynoszą wiele korzyści. Sam obszar AI/ML jest oczywiście bardzo rozległy, rozwija się na wielu płaszczyznach i dziś chciałbym przedstawić dwa tematy, na które, w moim odczuciu, warto zwrócić uwagę w najbliższym czasie.
Algorytmy deep learning jako wsparcie dla analityki danych
Firmy toną w danych. Wolumen archiwizowanych codziennie informacji cały czas rośnie, a tradycyjne środki analizy już nie wystarczają do przetworzenia ich tak, by stanowiły solidną podstawę do podejmowania dobrych decyzji. Z pomocą przychodzą tu algorytmy tzw. uczenia głębokiego (deep learning). Można je obrazowo opisać jako formę naśladowania sieci neuronowych, czyli działania ludzkiego mózgu. Doświadczonemu pracownikowi czasem wystarczy rzut oka na jeden wykres, żeby zauważyć jakąś nieprawidłowość. Podobnie działają sieci neuronowe, lecz do niedawna ich wymagania co do mocy obliczeniowej przesądzały o ich niskiej opłacalności w wielu zastosowaniach.
Dzięki infrastrukturze chmurowej dysponujemy obecnie wystarczającym zapleczem IT, by szybko tworzyć wydajne modele (algorytmy) neuronowe, które z powodzeniem mogą przetworzyć ogromne ilości danych liczbowych, tekstowych czy binarnych (obrazy, wideo czy pliki audio).
Ochrona zdrowia wspierana AI
Przykładem branży, która z powodzeniem wdraża tego typu rozwiązania jest ochrona zdrowia. Szpitale, kliniki czy laboratoria dysponują dużą liczbą wysoce nieujednoliconych danych, takich jak zdjęcia medyczne, wywiady pacjentów, strumienie danych z urządzeń diagnostycznych – a przy tym wymagają ich szybkiej analizy i podejmowania właściwych decyzji dla dobra pacjenta. Wszystko to sprawia, że w 2021 roku już 90% szpitali w USA określiło strategię wdrożenia rozwiązań AI wspomagających codzienną pracę. Jeszcze w 2019 roku 47% tych placówek nie miało żadnej strategii z tym związanej (2).
Oprócz oczywistych korzyści, przyczyny takiego stanu rzeczy należy upatrywać również w demokratyzacji rozwiązań AI, co przejawia się np. w dostępności gotowych algorytmów, które pozwalają wdrażać tego typu rozwiązania jeszcze szybciej. Warto w tym miejscu wspomnieć, że firma Microsoft oferuje zestaw narzędzi i usług chmurowych, jak i rozbudowaną bazę wiedzy dedykowane dla rozwiązań wdrażanych w ochronie zdrowia (3).
TinyML: uczenie maszynowe w pigułce
Istnieje popularne przekonanie, że korzystanie z rozwiązań AI/ML jest drogie i wymaga silnego zaplecza obliczeniowego w chmurze. Ponadto w ostatnich latach ogromny wzrost ilości danych spowodował, że wymagania algorytmów ML dotyczące wydajności infrastruktury IT były zbyt wielkie, by można było ich używać na urządzeniach lokalnych (tzw. brzegowych).
Jednak bardzo duża część danych, które przechwytujemy pochodzi z niewielkich urządzeń IoT (internet of things), które, choć obecne już niemal wszędzie, same w sobie nie posiadają dużej mocy obliczeniowej.
Gdyby jednak można było część tych danych analizować od razu w urządzeniu i zamiast danych źródłowych wysyłać tylko wynik, to zmniejszyłoby to konieczność przechowywania dużej części tych danych i, co za tym idzie, znacznie ograniczyło zapotrzebowanie na moc obliczeniową w chmurze.
Taka idea przyświeca koncepcji tinyML: zintegrować ML z IoT, by analizować dane możliwie najbliżej miejsca ich powstania. By to zrealizować, tworzone są specjalne algorytmy ML o niskich wymogach mocy obliczeniowej i pamięci RAM, generujące jednak wyniki o wystarczająco wysokiej dokładności. Tego typu czujniki, będące w istocie mikrokomputerami, mogą służyć do wzbudzania alertu w przypadku stwierdzenia nieprawidłowości w odczytach z maszyny produkcyjnej bądź (gdy wyposażone w kamerę) zasygnalizować wadę we właśnie wyprodukowanym produkcie.
Kluczową kwestią są tu oczywiście koszty – bowiem cena urządzenia IoT, które potrafi przetwarzać dane może wynosić jedynie kilkanaście, czy czasem wręcz kilka złotych. Porównując to z kosztami przetwarzania ogromnych mas danych w chmurze, nie będzie zaskoczeniem, że według szacunków wartość rynku urządzeń brzegowych (tzw. edge computing) osiągnie, w zależności od prognozy, 40-60 miliardów dolarów jeszcze przed 2030 rokiem (4).
Generatywne AI – ChatGPT sensacją internetu
Trudno nie wspomnieć tu przy okazji o najnowszej usłudze AI, wzbudzającej powszechne zainteresowanie – ChatGPT – uruchomionej w listopadzie 2022. Eksploruje ona obszar sztucznej inteligencji nazywany NLP, czyli przetwarzanie języka naturalnego, obecnej od lat m.in. w wirtualnych asystentach. Tutaj mamy jednak możliwość zadawania złożonych pytań, które wykraczają poza jedną, określoną domenę tematyczną, jak to jest w przypadku “zwykłych” chatbotów.
Popularność ChatGPT wynika m.in. z możliwości przetestowania go za darmo na stronie narzędzia (5). Jednak ta usługa dostarczana przez firmę OpenAI docelowo ma być płatna. Wyzwaniem najbliższych miesięcy będzie więc jej komercjalizacja i znalezienie właściwych zastosowań biznesowych, jednak już w tej chwili jawi się jako świetna alternatywa dla wiodącej wyszukiwarki internetowej, która już dawno z dostawcy treści zmieniła się w platformę reklamową.
Sztuczna inteligencja motorem napędowym rozwoju
Żyjemy w czasach przełomowych osiągnięć technologicznych, wśród których AI wiedzie prym. Organizacje na całym świecie z obszaru ochrony zdrowia, przemysłu, handlu itd. wprowadzają już przełomowe innowacje w zakresie sztucznej inteligencji i uczenia maszynowego do swoich codziennych procesów. AI nie tylko kształtuje przyszłość niemal każdej branży, ale pełni również funkcję czynnika napędzającego rozwój takich technologii jak big data czy IoT. Biorąc pod uwagę tempo wzrostu sztucznej inteligencji i uczenia maszynowego, nie można lekceważyć ich wpływu, ale należy przyjrzeć się temu, jak te technologie mogą wesprzeć naszą działalność.
Krzysztof Nogieć, architekt Azure, ANEGIS
Źródła:
- PwC’s Global Artificial IntelligenceStudy: Sizing the prize, https://www.pwc.com/gx/en/issues/data-and-analytics/publications/artificial-intelligence-study.html
- 90% of Hospitals Have Artificial Intelligence Strategies in Place, https://healthitanalytics.com/news/90-of-hospitals-have-artificial-intelligence-strategies-in-place
- Health – Microsoft Industry Blogs, https://www.microsoft.com/en-us/industry/blog/health/
- Machine learning at the edge: TinyMLis getting big, https://www.zdnet.com/article/machine-learning-at-the-edge-tinyml-is-getting-big/
- ChatGPT, https://chatgptonline.net/