Sztuczna inteligencja generatywna to dynamicznie rozwijająca się dziedzina, która umożliwia tworzenie różnorodnych treści, takich jak obrazy, teksty, nagrania dźwiękowe, utwory muzyczne, a nawet materiały wideo. Zyskuje ona na popularności i znajduje szerokie zastosowanie w wielu branżach i zawodach.
Jeśli pragniesz zgłębić tajniki generatywnej sztucznej inteligencji i potencjalnie stworzyć własne aplikacje oparte na tej technologii, trafiłeś we właściwe miejsce.
Przygotowaliśmy zestawienie darmowych kursów i materiałów edukacyjnych, które pomogą Ci rozpocząć fascynującą podróż w świat generatywnej AI. Bez względu na to, czy jesteś osobą początkującą, czy doświadczonym entuzjastą sztucznej inteligencji, nasz przewodnik wskaże Ci odpowiedni kierunek.
Wyruszmy razem w tę podróż i odkryjmy potencjał generatywnej sztucznej inteligencji!
Intensywny kurs Full Stack LLM
Obóz szkoleniowy Full Stack LLM oferuje dwudniowy program, który skupia się na aktualnych najlepszych praktykach i najnowszych odkryciach badawczych. Ma on na celu wyposażenie Cię w wiedzę i umiejętności potrzebne do pewnego tworzenia aplikacji z wykorzystaniem modeli językowych (LLM).
Początkowo kurs był prowadzony stacjonarnie w San Francisco w kwietniu 2023 roku. Aktualnie udostępniono nagrania z wykładów, do których dostęp jest bezpłatny. Kurs jest polecany jako idealny punkt wyjścia dla każdego, kto interesuje się modelami wielkojęzykowymi i ich praktycznymi zastosowaniami.
Wymagania wstępne
Prezentowane materiały są dedykowane programistom języka Python, którzy chcą implementować modele wielkojęzykowe (LLM) w swoich aplikacjach. Dodatkowym atutem będzie posiadanie doświadczenia w dziedzinie uczenia maszynowego, tworzenia frontendu lub backendu.
Zakres kursu
- Wprowadzenie do modeli wielkojęzykowych (LLM)
- Techniki prompt engineeringu i kreatywne zastosowanie LLM
- Kwestie związane z wdrażaniem i operacjami
- Projektowanie intuicyjnych interfejsów językowych
- Adaptacja modeli językowych do konkretnych zadań
- Szybkie tworzenie i wdrażanie aplikacji LLM
- Prognozy dotyczące przyszłych trendów i zmian w tej dziedzinie
- Podstawowe koncepcje LLM
Program Full Stack Deep Learning jest doskonałą propozycją dla wszystkich zainteresowanych modelami wielkojęzykowymi i ich praktycznym wykorzystaniem. Dzięki zespołowi doświadczonych instruktorów, w tym doktorantom z Uniwersytetu Kalifornijskiego w Berkeley, to źródło stanowi kompleksowe wprowadzenie do generatywnej sztucznej inteligencji.
Wprowadzenie do ścieżki edukacyjnej generatywnej sztucznej inteligencji
Google Cloud oferuje rozbudowaną ścieżkę szkoleniową dotyczącą generatywnej sztucznej inteligencji. Obejmuje ona różnorodne aspekty tej technologii, od podstawowych koncepcji modeli wielkojęzykowych po zasady odpowiedzialnego wykorzystania AI. Ta ścieżka edukacyjna to doskonały punkt wyjścia dla każdego, kto chce zdobyć wiedzę na temat generatywnej sztucznej inteligencji.
Wymagania wstępne
Kursy w ramach tej ścieżki edukacyjnej mają charakter wprowadzający i nie wymagają żadnych specjalnych przygotowań. Są odpowiednie dla osób początkujących i wszystkich, którzy chcą zgłębić wiedzę na temat generatywnej sztucznej inteligencji.
Zakres kursu
- Podstawy generatywnej sztucznej inteligencji
- Zrozumienie działania modeli wielkojęzykowych
- Optymalizacja wydajności LLM poprzez dostrajanie (fine-tuning)
- Wprowadzenie do koncepcji odpowiedzialnej sztucznej inteligencji
- Wdrożenie zasad odpowiedzialnej sztucznej inteligencji przez Google
- Podstawowe aspekty generatywnej sztucznej inteligencji
- Odpowiedzialne wykorzystanie AI w Google Cloud
- Odpowiedzialne stosowanie zasad sztucznej inteligencji
Pomyślne ukończenie końcowego testu potwierdza Twoje zrozumienie podstawowych koncepcji generatywnej sztucznej inteligencji.
Niezależnie od tego, czy dopiero zaczynasz swoją przygodę z tą dziedziną, czy chcesz poszerzyć swoją wiedzę, te kursy zapewnią Ci solidne fundamenty w zakresie pojęć związanych z generatywną sztuczną inteligencją, modelami wielkojęzykowymi i zasadami odpowiedzialnego wykorzystania AI.
Podstawy Microsoft Azure AI: Generatywna sztuczna inteligencja
Microsoft Azure oferuje rozbudowaną ścieżkę szkoleniową poświęconą generatywnej sztucznej inteligencji. Skupia się ona na tym, jak modele są trenowane do tworzenia nowych, oryginalnych treści na podstawie danych wejściowych w języku naturalnym. Generatywna sztuczna inteligencja umożliwia generowanie tekstu, obrazów, a nawet fragmentów kodu w odpowiedzi na opisy w języku potocznym.
Ta ścieżka szkoleniowa została stworzona, aby pomóc Ci rozpocząć pracę z generatywną sztuczną inteligencją i zgłębić różne aspekty, w tym rolę platformy Azure w zapewnianiu dostępu do technologii generatywnej AI.
Wymagania wstępne
Jako warunek wstępny tego szkolenia zalecana jest znajomość platformy Azure i portalu Azure. Jest ono odpowiednie dla osób początkujących i na różnych poziomach zaawansowania, w tym inżynierów AI, programistów, architektów rozwiązań i studentów.
Zakres kursu
- Wprowadzenie do generatywnej sztucznej inteligencji
- Generowanie języka naturalnego
- Generowanie obrazów i kodu
- Zrozumienie modeli wielkojęzykowych (LLM)
- Modele transformacyjne
- Tokenizacja i osadzanie
- Podstawy usługi Azure OpenAI
- Wprowadzenie i przykłady Copilota
- Ulepszanie generatywnych odpowiedzi AI dzięki technikom prompt engineeringu
Ścieżka szkoleniowa „Generatywna sztuczna inteligencja” platformy Microsoft Azure jest doskonałym źródłem informacji dla osób chcących poznać generatywną sztuczną inteligencję w kontekście ekosystemu Azure.
Skupiając się na odpowiedzialnym wykorzystaniu sztucznej inteligencji i praktycznych zastosowaniach, ta ścieżka edukacyjna zapewnia uczestnikom wiedzę i umiejętności potrzebne do zrozumienia generatywnej sztucznej inteligencji i pracy z nią.
Jak działają modele dyfuzyjne
Kurs pod tytułem „Jak działają modele dyfuzyjne” oferuje dogłębne zrozumienie modeli dyfuzji stosowanych w generatywnej sztucznej inteligencji. Wykracza on poza standardowe korzystanie z gotowych modeli lub API i uczy, jak zbudować model dyfuzyjny od podstaw.
Celem kursu jest zdobycie praktycznego doświadczenia w zakresie generatywnej sztucznej inteligencji opartej na dyfuzji. Prowadzi go Sharon Zhou, współzałożycielka i dyrektor generalna firmy Lamini, dzięki czemu możesz uczyć się od doświadczonego specjalisty w branży.
Wymagania wstępne
Jest to kurs na poziomie średniozaawansowanym. Znajomość Pythona i bibliotek Tensorflow lub Pytorch będzie korzystna, aby w pełni wykorzystać jego zawartość.
Zakres kursu
- Wprowadzenie do modeli dyfuzyjnych
- Intuicja stojąca za modelami dyfuzji
- Próbkowanie w modelach dyfuzyjnych
- Sieci neuronowe w modelach dyfuzyjnych
- Trenowanie modeli dyfuzyjnych
- Sterowanie modelami dyfuzji
- Przyspieszanie modeli dyfuzyjnych
Jeśli chcesz głębiej zanurzyć się w świat modeli dyfuzyjnych w generatywnej sztucznej inteligencji, kurs „Jak działają modele dyfuzyjne” jest idealnym źródłem informacji. Umożliwia on budowanie, trenowanie i optymalizację modeli dyfuzji, dając praktyczne umiejętności potrzebne do dalszej eksploracji tej fascynującej dziedziny.
Dostęp do kursu jest bezpłatny przez ograniczony czas, co stanowi doskonałą okazję do poszerzenia swoich umiejętności w zakresie generatywnej sztucznej inteligencji.
Wykorzystanie API OpenAI do stworzenia 5 projektów
Ten kurs to kompleksowe wprowadzenie do API OpenAI. Uczy on, jak korzystać z API OpenAI do tworzenia pięciu ciekawych projektów, takich jak klon ChatGPT, kreator obrazów DALL-E i generator SQL.
Projekty te eksplorują różnorodne możliwości i potencjalne zastosowania API OpenAI.
Wymagania wstępne
Kurs nie określa żadnych konkretnych wymagań wstępnych, ale zalecana jest podstawowa wiedza na temat języków programowania, takich jak JavaScript, React, Node.js i TypeScript, a także znajomość korzystania z API w tworzeniu oprogramowania.
Zakres kursu
- Wprowadzenie, wymagania wstępne i konfiguracja
- Dostęp do API, zarządzanie kluczami i uwierzytelnianie
- Zrozumienie różnych modeli
- Uzupełnianie tekstu, niestandardowe podpowiedzi i instrukcje
- Techniki optymalizacji promptów
- Budowanie chatbotów przy użyciu GPT-3
- Projekt generowania obrazu 1 | JavaScript
- Generowanie obrazów za pomocą DALL-E
- Projekt generowania obrazu 2 | React + Node.js + Biblioteka OpenAI NPM
- Projekt generatora SQL | TypeScript + Node.js + biblioteka OpenAI NPM
Jeśli chcesz poznać możliwości API OpenAI i tworzyć angażujące projekty, ten kurs jest doskonałym źródłem informacji. Niezależnie od tego, czy interesuje Cię tworzenie aplikacji na wzór ChatGPT, generowanie obrazów za pomocą DALL-E, czy tworzenie zapytań SQL, ten kurs Ci w tym pomoże.
Szczegółowe instrukcje krok po kroku i praktyczne projekty pozwolą Ci w pełni wykorzystać potencjał API OpenAI.
Stwórz duży model językowy od podstaw z Pythonem
Ten kurs oferuje szczegółowy samouczek dotyczący tworzenia własnego dużego modelu językowego od zera, wykorzystując język Python. Zagłębia się w obszar przetwarzania danych, koncepcji matematycznych i wdrażania transformatorów, które stanowią podstawę dużych modeli językowych.
Poznasz różne aspekty związane z budową modelu językowego.
Wymagania wstępne
Niezbędna jest znajomość języka programowania Python, ponieważ kurs wykorzystuje go głównie do kodowania. Pożądana jest również wiedza z zakresu głębokiego uczenia, zwłaszcza w kontekście sieci neuronowych i ich uczenia.
Zakres kursu
- Wprowadzenie i konfiguracja
- Wstępne przetwarzanie tekstu
- Podstawy algebry liniowej
- Przygotowanie danych i wprowadzanie ich do modeli
- Przejście z procesora na CUDA
- Wprowadzenie do PyTorcha
- Iloczyn skalarny i mnożenie macierzy
- Implementacja Matmul
- Budowa sieci neuronowej
- Budowa modelu GPT
- Optymalizatory i normalizacja
- Bloki transformacyjne i uwaga wielogłowicowa
- Uczenie modelu i hiperparametry
- Trenowanie z wykorzystaniem OpenWebText
- Obsługa błędów, zapisywanie i ładowanie modelu
- Narzędzia do tworzenia skryptów i wiersza poleceń
- Trening wstępny a dostrajanie
Jeśli pragniesz poznać szczegóły budowy dużego modelu językowego od podstaw, ten samouczek będzie dla Ciebie bardzo cennym źródłem wiedzy.
Kurs prowadzi Cię krok po kroku, zapewniając wiedzę i umiejętności niezbędne do stworzenia własnego modelu językowego.
Wprowadzenie do dużych modeli językowych w Google Cloud
Ten kurs wprowadzający, oferowany przez Google Cloud, to krótkie szkolenie, które zapewnia przegląd dużych modeli językowych (LLM). Omawia, czym są LLM, ich zastosowania i jak dostrajanie może poprawić ich wydajność.
Zawiera również zbiór materiałów do czytania na temat dużych modeli językowych.
Ponadto kurs przedstawia narzędzia Google, które mogą pomóc w tworzeniu własnych generatywnych aplikacji AI.
Wymagania wstępne
Kurs jest przeznaczony specjalnie dla osób początkujących i nie wymaga żadnego wcześniejszego doświadczenia.
Zakres kursu
- Wprowadzenie do dużych modeli językowych
- Zestaw materiałów do czytania (zasoby edukacyjne)
Ten kurs stanowi idealny punkt wyjścia dla tych, którzy chcą zrozumieć podstawy dużych modeli językowych i ich praktyczne zastosowania.
Został zaprojektowany tak, aby był przyjazny dla początkujących i pozwalał osobom bez wcześniejszego doświadczenia zapoznać się ze światem generatywnej sztucznej inteligencji i modelami językowymi w Google Cloud!
Uniwersytet LLM firmy Cohere
LLM University to obszerne źródło wiedzy przeznaczone dla osób zainteresowanych przetwarzaniem języka naturalnego (NLP), zarówno początkujących, jak i zaawansowanych.
Skupia się na tematach NLP, w tym na dużych modelach językowych (LLM), co czyni go idealną platformą dla tych, którzy chcą opanować umiejętności NLP i poznać LLM.
Wymagania wstępne
Program LLMU ma na celu zapewnienie solidnych podstaw w zakresie sztucznej inteligencji językowej dla osób z różnym doświadczeniem. Niezależnie od tego, czy jesteś początkującym adeptem uczenia maszynowego, entuzjastą, który chce tworzyć aplikacje AI oparte na języku, czy też osobą gotową wykorzystać swoje umiejętności w praktyce, Uniwersytet LLM jest skierowany do szerokiej grupy odbiorców.
Zakres kursu
- Wprowadzenie do LLM
- Reprezentacja tekstu
- Generowanie tekstu
- Prompt engineering
Uniwersytet LLM to doskonałe źródło informacji dla wszystkich zainteresowanych doskonaleniem swoich umiejętności w zakresie NLP i LLM, a także odkrywaniem świata dużych modeli językowych i generatywnej sztucznej inteligencji.
Oprócz materiałów kursowych będą organizowane grupy dyskusyjne i wydarzenia dedykowane wyłącznie uczestnikom szkolenia!
Szybki kurs LangChain
Ten przyspieszony kurs jest przeznaczony dla osób początkujących, które chcą nauczyć się obsługi frameworka LangChain, stworzonego w celu uproszczenia tworzenia aplikacji wykorzystujących duże modele językowe.
LangChain umożliwia bezproblemową integrację modeli AI z różnymi źródłami danych, ułatwiając tworzenie niestandardowych aplikacji do przetwarzania języka naturalnego (NLP).
Wymagania wstępne
Kurs jest przeznaczony dla początkujących, dlatego nie ma konkretnych wymagań wstępnych. Jednak podstawowe zrozumienie koncepcji programowania i znajomość podstawowych aspektów AI i NLP może być korzystne.
Zakres kursu
- Wprowadzenie do LangChain
- Pierwszy projekt – Generator nazw zwierząt
- Eksploracja agentów w LangChain
- Drugi projekt – Asystent YouTube
- Tworzenie własnych baz wektorowych
- Omówienie potencjalnych zastosowań LangChain
- Koszty i budżetowanie API OpenAI
Jeśli jesteś początkującym i chcesz zapoznać się ze światem dużych modeli językowych i zastosowań NLP, ten przyspieszony kurs z LangChain będzie dla Ciebie fantastycznym źródłem informacji.
Skupiając się na praktycznych projektach i uproszczonym wykorzystaniu dużych modeli językowych, możesz szybko rozpocząć swoją podróż w tworzeniu niestandardowych aplikacji NLP.
Kurs przyspieszony Stable Diffusion
Ten kompleksowy kurs jest przeznaczony dla początkujących, którzy chcą nauczyć się obsługi narzędzia Stable Diffusion do tworzenia grafik i obrazów. Kurs obejmuje różnorodne aspekty, w tym trenowanie własnego modelu, korzystanie z Control Net, wykorzystanie punktu końcowego API Stable Diffusion i wiele innych.
Zwraca również uwagę na etyczne implikacje sztucznej inteligencji w sztuce oraz podkreśla odpowiedzialne użytkowanie i poszanowanie praw artystów.
Wymagania wstępne
Kurs nie określa żadnych konkretnych wymagań wstępnych, ale podstawowa znajomość pojęć związanych ze sztuką i sztuczną inteligencją może być korzystna dla lepszego zrozumienia materiału.
Zakres kursu
- Wprowadzenie do Stable Diffusion
- Budowanie i trenowanie własnego modelu
- Wprowadzenie do Control Net w Stable Diffusion
- Eksploracja punktu końcowego API Stable Diffusion
- Radzenie sobie z wyzwaniami etycznymi w sztuce generowanej przez sztuczną inteligencję
- Odpowiedzialne wykorzystanie AI w twórczości artystycznej
- Zasoby do dalszej nauki
Jeśli jesteś początkującym, którego interesuje tworzenie grafik i obrazów za pomocą Stable Diffusion, ten przyspieszony kurs będzie dla Ciebie cennym źródłem informacji. Obejmuje on wszystkie najważniejsze kwestie, od trenowania własnego modelu po korzystanie z punktu końcowego API Stable Diffusion.
Kurs podkreśla również znaczenie odpowiedzialnego wykorzystywania sztucznej inteligencji w sztuce i poszanowania praw artystów.
LangChain w tworzeniu aplikacji LLM
Ten kurs, opracowany we współpracy z LangChain, jest przeznaczony dla osób początkujących i skupia się na wykorzystaniu LangChain do tworzenia aplikacji opartych na modelach językowych (LLM). LangChain to framework służący do rozszerzania możliwości i zastosowań modeli językowych w procesie tworzenia aplikacji.
W trakcie tego kursu dowiesz się, jak zastosować LLM do własnych danych, stworzyć osobistych asystentów i wyspecjalizowane chatboty oraz poznasz różnorodne funkcje frameworka LangChain.
Wymagania wstępne
Chociaż kurs jest przyjazny dla osób początkujących, podstawowa znajomość języka Python może być korzystna, aby w pełni go wykorzystać.
Zakres kursu
- Wprowadzenie do LangChain i LLM
- Podpowiedzi modelowe i parsery
- Pamięć i kontekst w LLM
- Budowanie łańcuchów interakcji
- Zarządzanie postępem i logiką łańcucha
- Obsługa błędów i odzyskiwanie w łańcuchach
- Opracowywanie systemów pytań i odpowiedzi z LLM
- Metryki oceny i wydajności
- Praca z agentami w LangChain
- Integracja agentów w celu automatyzacji zadań
- Studia przypadków udanych wdrożeń agentów
Jeśli jesteś początkującym i chcesz poszerzyć swoją wiedzę w zakresie tworzenia aplikacji z modelami językowymi przy użyciu LangChain, ten kurs będzie dla Ciebie bardzo cennym źródłem informacji.
Kurs, kładący nacisk na naukę praktyczną, prowadzony przez Harrisona Chase’a i Andrew Ng, dostarcza umiejętności potrzebnych do wykorzystania możliwości modeli językowych w tworzeniu aplikacji.
Jak osoby zorientowane biznesowo mogą rozpocząć tworzenie wtyczek AI z Semantic Kernel
Ten kurs, opracowany we współpracy z Microsoftem, jest skierowany do osób początkujących i osób o profilu biznesowym, które chcą rozpocząć tworzenie wtyczek AI za pomocą Semantic Kernel.
Dowiesz się, jak korzystać z orkiestratora typu open source Semantic Kernel firmy Microsoft, aby rozwijać umiejętności planowania i analizy biznesowej z wykorzystaniem narzędzi AI.
Kurs obejmuje różne aspekty pracy z modelami wielkojęzykowymi (LLM) i wykorzystania typowych elementów składowych, takich jak pamięci, konektory, łańcuchy i planery.
Wymagania wstępne
Zalecana jest podstawowa znajomość Pythona i zrozumienie interfejsu programowania aplikacji (API). Znajomość zestawu Software Design Kit (SDK) może być pomocna, ale nie jest obowiązkowa.
Zakres kursu
- Wprowadzenie do modeli wielkojęzykowych (LLM)
- Wprowadzenie do Semantic Kernel
- Omówienie narzędzia Microsoft Open Source Orchestrator
- Opracowywanie skutecznych podpowiedzi
- Eksploracja wektorowych baz danych
- Zarządzanie danymi wektorowymi i wysyłanie zapytań do nich
- Zrozumienie funkcji semantycznych i ich roli
- LLM w zakresie planowania i podejmowania decyzji
Jeśli jesteś osobą o profilu biznesowym lub jesteś początkującym, zainteresowanym tworzeniem wtyczek AI i wykorzystaniem narzędzi AI do planowania i analizy biznesowej, ten kurs będzie dla Ciebie cennym źródłem informacji.
Dowiesz się, jak pracować z modelami wielkojęzykowymi (LLM) i Semantic Kernel firmy Microsoft, zdobywając umiejętności potrzebne do tworzenia zaawansowanych aplikacji biznesowych z wykorzystaniem LLM.
Kurs kładzie również nacisk na wykorzystanie typowych elementów składowych LLM i narzędzia Semantic Kernel o otwartym kodzie źródłowym. Kurs, prowadzony przez Johna Maedę, wiceprezesa ds. projektowania i sztucznej inteligencji w firmie Microsoft, zapewnia wiedzę potrzebną do zastosowań biznesowych.
Dostrajanie dużych modeli językowych
Ten kurs, opracowany we współpracy z Lamini, skupia się na podstawowych aspektach dostrajania dużych modeli językowych (LLM). Dostrajanie to proces, w którym wykorzystujesz własne dane do trenowania modelu i aktualizujesz wagi sieci neuronowych w LLM.
Ten kurs pomoże Ci zrozumieć, kiedy zastosować dostrajanie, jak przygotować do niego dane oraz jak trenować i oceniać LLM na swoich danych. Dowiesz się również, czym dostrajanie różni się od innych metod, takich jak inżynieria promptów i generowanie rozszerzone o wyszukiwanie.
Wymagania wstępne
Aby w pełni skorzystać z tego kursu, zaleca się, aby uczestnicy znali język Python i rozumieli środowisko głębokiego uczenia, takie jak PyTorch.
Zakres kursu
- Wprowadzenie do kursu
- Dlaczego warto stosować fine-tuning
- W jakich sytuacjach fine-tuning znajduje zastosowanie
- Dostrajanie instrukcji
- Przygotowanie i wstępne przetwarzanie danych
- Proces trenowania modeli
- Ocena i iteracja
Jeśli chcesz zgłębić świat dostrajania dużych modeli językowych (LLM) i zrozumieć związane z tym techniki i zastosowania, ten kurs będzie dla Ciebie bardzo cennym źródłem informacji.
Kurs, prowadzony przez Sharon Zhou, doświadczoną instruktorkę w tej dziedzinie, omawia podstawowe informacje o tym, kiedy i jak zastosować dostrajanie, przygotowanie danych oraz trenowanie i ocenę LLM z wykorzystaniem własnych danych.
Budowanie systemów z wykorzystaniem API ChatGPT
Ten krótki kurs, stworzony we współpracy z OpenAI, skupia się na temacie ” Budowanie systemów za pomocą API ChatGPT„. Jego celem jest nauczenie uczestników, jak skutecznie budować wieloetapowe systemy wykorzystujące duże modele językowe.
Poprzez podział złożonych zadań na potok podzadań z użyciem wieloetapowych promptów, dowiesz się, jak zautomatyzować złożone przepływy pracy i poprawić swoją wydajność.
Wymagania wstępne
Do ukończenia tego kursu wystarczy podstawowa znajomość języka Python. Jest on również odpowiedni dla średniozaawansowanych i zaawansowanych inżynierów uczenia maszynowego, którzy chcą udoskonalić swoje umiejętności projekt
newsblog.pl
Maciej – redaktor, pasjonat technologii i samozwańczy pogromca błędów w systemie Windows. Zna Linuxa lepiej niż własną lodówkę, a kawa to jego główne źródło zasilania. Pisze, testuje, naprawia – i czasem nawet wyłącza i włącza ponownie. W wolnych chwilach udaje, że odpoczywa, ale i tak kończy z laptopem na kolanach.