![Paul Lazniak / Paweł Łaźniak](/img/default-banner.jpg)
- Видео 69
- Просмотров 263 832
Paul Lazniak / Paweł Łaźniak
Польша
Добавлен 23 авг 2013
Tworzę poradniki i tutoriale jak używać AI (głównie Stable Diffusion) przy generowaniu obrazów za pomocą AI oraz dzielę się jak tworzyć animacje przy użyciu AI
Видео
Fiat 126p dancing a breakdance [ THE FIAT AND THE FURIOUS ]
Просмотров 26416 часов назад
Fiat 126p dancing a breakdance [ THE FIAT AND THE FURIOUS ]
ComfyUI - przejmij kontrolę nad AI - z prostej "makiety 3D" twórz ciekawe animacje Stable Diffusion
Просмотров 2562 месяца назад
W tym luźnym tutorialu zobczysz jak wodzić za nos Stable Diffusion - czyli po wrzuceniu prostej np. animacji 3D jako input video będziesz w stanie odwzorować animację. potrzebne pliki (workflow i inne znajdziesz tutaj) drive.google.com/drive/folders/1hMesz9cKhDFxhhU4wYDV8SYHnCKr-7n-?usp=sharing modele 3D do tworzenia animacji bazowych - mozna pobierać ze sketchfab.com/ used 3D models: sketchfab...
Darmowy generator napisów do filmów po polsku - NVIDIA (Whisper od openAI) - bez chmury.
Просмотров 5942 месяца назад
poziom trudności - "średni" potrzebne będzie: CUDA Toolkit 12.4 developer.nvidia.com/cuda-downloads?target_os=Windows&target_arch=x86_64&target_version=10&target_type=exe_local ANACONDA 3 www.anaconda.com/download/#windows PLIK Z MOIM SKRYPTEM: drive.google.com/file/d/1fdJ2iVHwmTCx7ZQ8LFv_pzcmHueXH8jq/view?usp=sharing
Animacja za pomocą AI - tutorial (Stable Diffusion / ComfyUI) IMG2VIDEO
Просмотров 3482 месяца назад
00:00 - krótki wstęp 01:00 - instalacja ComfyUI github.com/comfyanonymous/ComfyUI 01:32 - pobierz i zainstaluj 7-Zip www.7-zip.org/download.html 02:05 - rozpakowanie ComfyUI 02:28 - instalacja ComfyUI manager github.com/ltdrdata/ComfyUI-Manager 03:07 - pobranie i instalacja GIT (składnik potrzebny do Managera) git-scm.com/downloads 04:10 - klonowanie repozytorium ComfyUI Manager git clone githu...
Polski tutorial - ComfyUI - instalacja i twój pierwszy upscalling workflow
Просмотров 4793 месяца назад
00:00 - DZIŚ 00:12 - WSTĘP 00:48 - Instalacja ComfyUI LINK - github.com/comfyanonymous/ComfyUI 02:24 - pobieranie modeli LINK - civitai.com/models/133005?modelVersionId=357609 wersja LIGHTING/ustawienia: Res: 832*1216 | Sampler: DPM SDE | Steps: 4-6 | CFG: 1-2 LINK - civitai.com/models/133005?modelVersionId=348913 wersja SDXL standardowa/ustawienia: Res: 832*1216 | Sampler: DPM 2M Karras | Step...
Stable Diffusion - gmyranie w suwakach
Просмотров 2773 месяца назад
Stable Diffusion - gmyranie w suwakach
Stable diffusion SDXL - tutorial instalacji po polsku [FORGE Webui]
Просмотров 3673 месяца назад
github.com/lllyasviel/stable-diffusion-webui-forge www.7-zip.org/ huggingface.co/stabilityai/stable-diffusion-xl-refiner-1.0/tree/main set COMMANDLINE_ARGS= pin-shared-memory cuda-malloc cuda-stream Witaj w najnowszym tutorialu poświęconemu instalacji i konfiguracji Stable Diffusion SDXL przy użyciu interfejsu FORGE Webui! Stable Diffusion to potężne narzędzie do generowania obrazów za pomocą s...
#SORA by OpenAI - Sztuczna inteligencja tworzy fotorealistyczne video - zobacz jak to działa
Просмотров 3 тыс.4 месяца назад
#SORA #ai #openai Prezentacja modelu AI SORA by OpenAI openai.com/sora#capabilities musicby: pixabay.com/music/bate-better-day-186374/
jak zrobić prostą grę np. "SNAKE" z ChatGPT [polski tutorial]
Просмотров 4844 месяца назад
Film przedstawia jak wykonać z pomocą ChatGPT prostą grę na przykładzie klasycznej gry SNAKE. Do stworzenia potrzebny będzie python: www.python.org/downloads/
3D w AFTER EFFECTS - na każdym zdjęciu / obrazie !!! dzięki AI [ZoeDepth] [Tutorial PL]
Просмотров 3595 месяцев назад
link do plików projektu After Effects znajdziesz tutaj: drive.google.com/drive/folders/13XzsaEIHjrS6S3NBRJnEPvOQjeXUKTM_?usp=sharing link do ZoeDepth - huggingface.co/spaces/shariqfarooq/ZoeDepth link do Adobe - www.adobe.com/ chcesz wesprzeć moje działania - możesz postawić mi kawę ;) www.buymeacoffee.com/eyb8tkx3to dziękuję za Twój like i Subskrybcję! :) Paweł Łaźniak / Paul Lazniak
Generowanie Obrazów AI Bez Mocnego Sprzętu: Podstawy #dalle3
Просмотров 2346 месяцев назад
Witajcie, Tu Pablo gie-efix! W dzisiejszym tutorialu zabieram Was w podróż po fascynującym świecie generowania obrazów przy pomocy sztucznej inteligencji, nawet jeśli nie dysponujecie mocnym sprzętem komputerowym. Skupimy się na DALL-E 3, rewolucyjnym narzędziu dostępnym online, które pozwala tworzyć niesamowite grafiki na podstawie waszych opisów. 🌟 Co Znajdziesz w Tym Video? Wprowadzenie do A...
Stwórz AVATAR (GDYNIA)
Просмотров 1646 месяцев назад
LINK DO ZAMÓWIENIA USŁUGI: www.hexart.pl/index.php/produkt/twoj-wirtualny-awatar-nagranie-szkolenie/ kontakt tel://662016430
WOW! Darmowe narzędzie do animacji - Tekst do video !!! [TUTORIAL PL]
Просмотров 3327 месяцев назад
WOW! Darmowe narzędzie do animacji - Tekst do video !!! [TUTORIAL PL]
Materia Creation Session - Binaural AUDIO - 1 hour [#mushrooms]
Просмотров 1977 месяцев назад
Materia Creation Session - Binaural AUDIO - 1 hour [#mushrooms]
Piąty Wymiar #5d (wizualizacja piątego wymiaru z perspektywy czwartego)
Просмотров 3897 месяцев назад
Piąty Wymiar #5d (wizualizacja piątego wymiaru z perspektywy czwartego)
Best #AnimateDiff [closed LOOP example]
Просмотров 2817 месяцев назад
Best #AnimateDiff [closed LOOP example]
"Ghosts Of City" -- VR 360° [ArturMoon | SANCTUS | & Paul Lazniak live city performance] StreetArt
Просмотров 998 месяцев назад
"Ghosts Of City" VR 360° [ArturMoon | SANCTUS | & Paul Lazniak live city performance] StreetArt
TEST WYCIERACZEK OXIMO - OPEL INSIGNIA
Просмотров 1,4 тыс.8 месяцев назад
TEST WYCIERACZEK OXIMO - OPEL INSIGNIA
AUTOMATIC 1111 - jak "hakować" interfejs
Просмотров 564Год назад
AUTOMATIC 1111 - jak "hakować" interfejs
STABLE DIFFUSION img2img - polski tutorial
Просмотров 2 тыс.Год назад
STABLE DIFFUSION img2img - polski tutorial
Powitanie na moim kanale o AI, grafice i animacji
Просмотров 778Год назад
Powitanie na moim kanale o AI, grafice i animacji
Fatboyslim - Right Here Right Now - [fan art - world evolution] [iteration 1]
Просмотров 291Год назад
Fatboyslim - Right Here Right Now - [fan art - world evolution] [iteration 1]
ChatGPT + StableDiffusion - Magia użycia DYNAMIC PROMPTS [PO POLSKU]
Просмотров 1,3 тыс.Год назад
ChatGPT StableDiffusion - Magia użycia DYNAMIC PROMPTS [PO POLSKU]
Kruca Bomba, to jest lepsze niż oryginAl, a o kolejnych iteracjach nawet nie wspominam. Idzie rzeczywistość nowA, pIękna i kolorowA.
Ja je zamontowałam już chwilę temu i co do ich jakości to nie mam zastrzeżeń. Jakość jest dobra i do tego świetnie zbierają wodę
Również używam OXIMO i uważam że to bardzo dobre wycieraczki.
Czy w takim Stable Diffusion mogę pisać po polsku co zechcę razem z dodawaniem np. znanych osób czy postaci?
Siemka. Powiedz mi czy to normalne. Mam gtx 1660 i 32gb ramu i właśnie czekam już około 20 minut (!!) na wyrenderowanie jednej (JEDNEJ !!!!!) grafiki przy pomocy comfyui. A to dopiero początek bo zielony pasek pokazuje mi, że minęło dopiero jakieś 25% procesu. O co tu kur.. chodzi?! Wcześniej próbowałem Fooocus ai i tam grafika renderowała się około 8 minut co uznałem za jakieś nieporozumienie i dlatego postanowiłem spróbować Comfy ale widzę, że to jest jeszcze bardziej nie do użytku. Wiesz może gdzie leży problem? Midjourney renderowało mi grafiki w kilka sekund.
🥱
Troszkę się pogubiłem w tym wszystkim. Mógłbyś wytłumaczyć co jest lepsze, albo jakieś różnice między np. stable diffusion forge, auto1111, a stability matrix > fooocus 2.3.1 ?
Ile giga zajmuje Ci na kompie te całe „środowisko” comfyUI. Rozumiem że to zależy od ilości modelów itd ale tak mniejwiecej
1,78T
B
wygląda na prostą sprawę ;) ;) (pozdrówki, koment dla zasięgu) ;)
,
Nie ważne ile razy bym próbował to za każdym razem pokazuje mi komunikat "Nie można odnaleźć określonego pliku". W DaVinci Resolve renderowałem ścieżkę audio na wave, mp3 i w końcu na mp4, ale nie dało to żadnego skutku. Co robię nie tak? Ścieżka audio jest za długa (trwa 2 godziny ponad)? Czy chodzi o rozmiar pliku a może o to w jakim folderze się znajduje?
spróbujcie odwrócić sleshe w podawaniu ściezki do pliku: zamiast np. c:/plik.mp4 dajcie c:\plik.mp4 napisz proszę czy zadziałało ewentualnie po odpaleniu terminala z Conda wpisz pip install pathlib . poproszę o feadback czy któraś z tych porad zadziałała.
Cześć, przy przetwarzaniu pliku ciągle trafiam na ten błąd. Czy możesz nakierować mnie na jakieś rozwiązanie? Traceback (most recent call last): File "C:\Users\User\SRT_Maker\transcript.py", line 128, in <module> result = transcribe_audio(str(file_path)) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\Users\User\SRT_Maker\transcript.py", line 69, in transcribe_audio result = model.transcribe(video_path) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\Users\User\anaconda3\envs\SRT_Maker\Lib\site-packages\whisper\transcribe.py", line 122, in transcribe mel = log_mel_spectrogram(audio, model.dims.n_mels, padding=N_SAMPLES) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\Users\User\anaconda3\envs\SRT_Maker\Lib\site-packages\whisper\audio.py", line 140, in log_mel_spectrogram audio = load_audio(audio) ^^^^^^^^^^^^^^^^^ File "C:\Users\User\anaconda3\envs\SRT_Maker\Lib\site-packages\whisper\audio.py", line 58, in load_audio out = run(cmd, capture_output=True, check=True).stdout ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\Users\User\anaconda3\envs\SRT_Maker\Lib\subprocess.py", line 548, in run with Popen(*popenargs, **kwargs) as process: ^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\Users\User\anaconda3\envs\SRT_Maker\Lib\subprocess.py", line 1026, in __init__ self._execute_child(args, executable, preexec_fn, close_fds, File "C:\Users\User\anaconda3\envs\SRT_Maker\Lib\subprocess.py", line 1538, in _execute_child hp, ht, pid, tid = _winapi.CreateProcess(executable, args, ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ FileNotFoundError: [WinError 2] Nie można odnaleźć określonego pliku
po otwarciu w Conda konsoli spróbuj wpisać kolejno: pip install tqdm ffmpeg pathlib sprawdź czy działa następnie kolejno wpisuj: i sprawdzaj czy działa. pip install -U openai-whisper pip install --upgrade --no-deps --force-reinstall git+github.com/openai/whisper.git pip install --upgrade pip pip3 install torch torchvision torchaudio --index-url download.pytorch.org/whl/cu121 napisz proszę czy się udało.
@@Lazniak cześć mam taki sam błąd i niestety nie pomogło to co podałeś w komentarzu.
Cześć! Po przejściu przez tutorial (który jest świetny) i po wybraniu modelu (medium.7) i podaniu ścieżki pliku dostaję takie coś " Traceback (most recent call last): File "C:\Users\XXXX\SRT_Maker\transcript.py", line 44, in <module> raise Exception("Podana ścieżka nie istnieje.") Exception: Podana ścieżka nie istnieje.". Pomożesz? Totalnie nie znam się na pythonie a taki skrypt przydałby mi się w robocie. Pozdrawiam serdecznie!
spróbuj wpisać ścieżkę używając sleshy w drugą stronę powinno zadziałać, dokładniej rzecz ujmując: zamiast przykładowo: "D:\SD\WhisperX\file.mp4" wpisz: "D:/SD/WhisperX/file.mp4"
Jeżeli użyję tego do ścieżki audio która jest po angielsku lub francusku (bo akurat takiej potrzebuję) to czy napisy i tak zostaną wygenerowane? Czy wszystko jest zrobione jedynie pod język polski?
Wygeneruje w źródłowym języku
co zrobić, gdy wszystko działało, a teraz link nie łączy? Chyba po aktualizacjach windows😢
no i elegancko, może się kiedyś przydać ;)
Fajna sprawa, a jak sobie radzi ze ścieżką video? Działa lepiej niż capcut?
Skrypt wciąga zarówno pliki mp3 wav jak i mp4
założone nie narzekam ! Fajne i łatwe w montażu :P
Czy dla Forge dostępne są Controlnet, Adetailer, Dynamic promt i czy są kompatybilne wszystkie modele Lora? Siedzę od początku na A1111, zasiedziałem się, a kusi mnie ta lepsza optymalizacja
generalnie tak, sam interfejs jest bardzo zbliżony, wiele wtyczek poprostu działa w Forge - mnie udało się odpalić deforum w forge. ControlNet zupełnie na luzie, DynamicPrompting na zasadzie dzikich kart (WildCards) też testowałem. - chodzi. i to wszystko znacznie szybciej.
@@Lazniak ok, dzięki za info. Przetestuję. Może uda się poprawić w końcu wydajność na modelach XL
jakie masz parametry sprzetowe że generowanie zajmuje tak mało czasu na 1280x1280, ja uzyskuje cos podobnego w 30-40 sek na 4060 16GB ?
Używam modeli Lighting/Turbo różni się ustawieniami parametrów. Już po 3-6 stepach mamy ostateczną jakość obrazu. Ja pracuję jeszcze z kartą 2080ti
niewytłumaczone - dlaczego seed Ci skacze, dlaczego dwa razy uzyskałeś taki sam obraz. Poza tym trzeba oglądać na prędkości 1.5 - wtedy jest ok.
gdy "fixed" zatrzymujemy seed gdy increment podnosi wartość seed o 1, gdy randomize za każdym razem generuje nowy seed.
@@Lazniak ok, dzięki. Ja działam na A1111, tam jest trochę inaczej
Kosmos ❤
Poradnik jest dość mocno źle skonstruowany. Praktycznie wszystkie funkcje nie są wytłumaczone do czego służą i jak działają. Wszedłem w poradnik z myślą że się czegoś nowego dowiem albo chociaż że będzie na podobnym poziomie innych poradników confyUI z których zaczynałem swoją przygodę z tym AI. Osoba która wejdzie tu z myślą pierwszego zetknięcia się z tym tematem dowie się tylko szczątkowych informacji jak z tego korzystać. Osobiście przeszedłem już na automatic 111 który jest o wiele bardziej rozbudowany i ma więcej możliwości Pozdrawiam
dziękuję za szczery feadback, poszukuję cały czas formuły na poradniki, cały czas zastanawiam się jak optymalnie przekazać wiedzę, ale też nie spędzić zbyt dużej ilości godzin na montażu. myślę, że podział na sekcje mimo wszystko ułatwi nawigację. może wrócę do formuły nieco krótszych materiałów.
Jeśli twierdzisz, że automatic1111 jest o wiele bardziej rozbudowany to znaczy, że nie wiesz nic o ComfyUI
Super efekt końcowy. Szkoda, że nie pokazałeś finalnych ustawień. Ja od paru dni walczę ze szkicami, żeby zrobić z nich fotorealistyczne grafiki i jak na razie efekty są marne :D
kurczę a jednak ktoś ogląda ;) nie chciałem już zanudzać jak coś może jestem w stanie jakoś pomóc na live ;) pozdrawiam serdecznie, niebawem przygotowuje materiał o ComfyUI (w końcu) :)
ale generalnie na pewnym etapie warto przerzucić się do img2img zakładki, jak już pierwszy render jest w miarę, to potem na poziomie 0,30-0,5 w img2img kombinować z efektem, jeśli chcesz też fotorealistyczny efekt polecam odpowiedni model foto poszukac na civit.ai
Czym FORGE różni się od Auto1111?
Szybkością działania, lepsza optymalizacja pamięci, większe obrazy można generować i przyspiesza mocno na starszych kartach NVIDIA
A jak się ma to do TensorRT w A1111@@Lazniak
@@ryczkowsky tensor miałem wrażenie, że nie przyspiesza tak bardzo, wadą TensorRT jest na pewno że trzeba go najpierw przetrenować dla danego zestawu rozdzielczości. Ale przyznam, że nie przyglądałem się jakoś wyjątkowo długo tej wtyczce.
Wonsz ;) ;) koment dla zasięgu ;)
no i git ;)
Coś wspaniałego
U mnie zamontowane z pół roku temu- nadal działają więc je polecam
Nie robią smug?
это что ?братья Качинские из Польши?
czesc, mam taki problem z odpaleniem, po wybraniu webui-user i odpaleniu, wyswietla komunikat związany z pamięcią torch.cuda.OutOfMemoryError: CUDA out of memory. Tried to allocate 20.00 MiB (GPU 0; 4.00 GiB total capacity; 3.42 GiB already allocated; 0 bytes free; 3.48 GiB reserved in total by PyTorch) If reserved memory is >> allocated memory try setting max_split_size_mb to avoid fragmentation. See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CONF w zmiennych środowiskowych przypisałem mu 50 potem 100 (max_split_size_mb:50), ale bez zmian, masz pomysł jak to rozwiązać?
Nice!
Jarosław Kaczyński
Ale film to nie tylko zbiór ładnych obrazków, AI nie wygeneruje moich wspomnień z wakacji, moich emocji, żeby przekazać je ruchomym obrazem. Nawet jeżeli rozwinie się do ludzkiego poziomu. Miejmy nadzieję że prawdziwość nie przegra ze sztucznoscią.
ogólnie rzecz biorąc, patrząc jak rozwija się technika choćby NeRF i to, że gdzieś w sumie umieszczamy nasze wspomnienia w formie foto/video (np. zdjęcia google) ale i gdziekolwiek... generowanie modeli czy przestrzeni 3D - to odnoszę wrażenie, że odtwarzanie tego co w naszych wspomnieniach będzie niebawem możliwe. Fakt Faktem to co prawdziwe jest piękne.
W opisie filmu jest "jak to działa". Jakoś nie dowiedziałem się "jak to działa" 🙃
Słuszna uwaga, postaram się poprawić
Zagrajmy w grę. Jestem ciekawy o Wasze zdanie i przemyślenia. Jakie zawody i dlaczego zostaną zastąpione przez AI? Sam zacznę od kilku a Wy pociągnijcie dalej. --- Influencer. ---Ostatnio spierałem się z moją dziewczyną o ten zawód. Ona twierdzi, że namacalny człowiek nie zostanie zastąpiony przez awatary w świecie cyfrowym. Osobiście uważam, że nawet jeśli cyfrowy influencer będzie w 20% gorszy od prawdziwego to i tak będzie o 95% tańszy, więc będzie wybierany przez koncerny. --- kierowca ciężarówki --- Jeden z głównych kosztów w logistyce jest człowiek. Musi robić przymusowe przerwy w ciągu dnia pracy, a na koniec dnia musi spać. Trzeba mu też lepiej płacić, aby zrekompensować rozłąkę z rodziną. Dodatkowo przez 90% czasu musi utrzymać się tylko w pasie na autostradzie
ja w fotografii ponad 20 lat i cieszę się ze sie przebranżawiam. jedynie szkoda ze tak późno
za parę lat nie będzie już branż dla ludzi
Ja pracuje w branży 3D/VFX/CGI i czuje, że czas zwijać manatki, bo moja kreatywność już nikomu nie będzie potrzebna.
30-33 sekunda filmu. Nogi się pani plączą. nie rozumiem tych zachwytów ...
rzeczywiscie slabo, na pewno ai jest przereklamowane i nie ma przyszlosci. Dla mnie dzien jutrzejszy to tylko konie i kobiety w polu a nie jakis postep technologiczny
jak nie czujesz zachwytu to dobrze . jutro będziesz bez roboty . chyba ze rękami tyrasz to zawsze choćby łopata
@@bamo500 dziękuję za troskę. poradzę sobie. sugeruję poczytać Jana Białka Tech Krytyka rozwoju środowiska technologicznego.
Ludzie pracujący przy produkcji filmów mogą już powoli zacząć szukać innej pracy... Już nie wspominając jaki będzie wysyp fake newsów za pomocą wideo wygenerowanego przez ai
Dokładnie. Ja pracuje w branży 3D/VFX/CGI i czuje, że czas zwijać manatki, bo moja kreatywność już nikomu nie będzie potrzebna.
Woow, grubo, jesli prawdziwe i bez tuningu...
Ja jestem przerażony.
Dokładnie. Nie wróży to nic dobrego dla ludzkości.
ostatni gasi światło
< style="border-radius:12px" src="open.spotify.com/embed/track/7jKIKekr7GbdNnfCsu49iz?" width="100%" height="352" frameBorder="0" allowfullscreen="" allow="autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture" loading="lazy"></>
wow,kiedy bedzie dostepne publicznie?
Powiedz mi, czy lepiej używać SD jako osobną instalacje i uruchamiać z pliku bat czy zainstalować sobie stable matrix ktory pozwala instalowac jednym przyciskiem, dodatkowo ma wygodne opcje jak wyszukiwanie modeli na civitai lora itd. Czasami mam wrażenie, że przez matrixa trochę dłużej myśli generator a nie mam jak porównać bo nie instalowałem jeszcze samego SD tylko od razu przez GUI stable matrix
wszystko zrobione jak w poradniku u ciebie, po wejściu w plik bat jako 4 linijka wyskakuje to ,,fatal: No names found, cannot describe anything,, robiąc jak pare innych osób na youtube wyskakuje mi to samo, co zrobić...
Very nice 👍
Jak bardzo zaawansowane skrypty potrafi tworzyć chatgpt ? Czy chatgpt potrafi stworzyć interaktywne elementy dla witryn internetowych ?
zaprezentowana metoda raczej stworzy pojedyncze fragmenty skryptów np. w js ale nie liczyłbym na bardzo zawotne efekty :) po podpięciu do API mamy dostęp do ciekawszych modeli z większą liczbą tokenów, tam można liczyć na nieco lepsze efekty. Polecam też sprawdzić środowisko AutoGen Studio.
xD?
xD?
xD?