RTV forum PL | NewsGroups PL

Jak stworzyć realistyczny efekt wodnych refleksów na ścianach w pokoju?

efekt refleksów od wody

NOWY TEMAT

elektroda NewsGroups Forum Index - Elektronika Polska - Jak stworzyć realistyczny efekt wodnych refleksów na ścianach w pokoju?

Goto page Previous  1, 2, 3, 4  Next

x
Guest

Tue Mar 31, 2026 10:38 pm   



W dniu 31.03.2026 o 18:13, J.F pisze:

Quote:
Idąc do pełnego sklepu też kombinujesz czy półki są puste?

W sklepie jest to, co sklep zamówił.

W LLM to, czym nakarmili.

Wszystkim czym mogli Smile
[...]
Quote:
AI nie zapyta jaką śrubkę chcesz. Ty musisz wiedzieć co chcesz.

" Jak zrobić sobie taki efekt świetlny do pokoju. Chodzi o jakby
odbicie od falującej wody na ścianach, suficie - jak na basenie. "

Mało precyzyjne? Smile

Napisz książkę, będzie precyzyjnie. Sądząc z Twoich wpisów na NNTP gdzie
opadasz w halucynacje, zapominasz, "konfabulujesz", proponuję abyś
skorzystał w linka i poprowadził dyskusję dalej. Wystarczy że dopiszesz
"Podaj jeszcze 30 różnych/innych rozwiązań" Smile
W sumie, masz gotowca.
https://gemini.google.com/share/a2302416e391

--
Pixel
Albo PiS albo Polska

J.F
Guest

Wed Apr 01, 2026 5:53 am   



On Tue, 31 Mar 2026 22:38:48 +0200, …ǝxᴉ“’Âí íí í wrote:
Quote:
W dniu 31.03.2026 o 18:13, J.F pisze:

Idąc do pe‚nego sklepu te kombinujesz czy p‚ki są puste?

W sklepie jest to, co sklep zamwi‚.

W LLM to, czym nakarmili.

Wszystkim czym mogli Smile

No - i widać ktos ju opisa‚ jak moa takie efekty uzyskać.

Quote:
[...]
AI nie zapyta jaką ›rubkę chcesz. Ty musisz wiedzieć co chcesz.

" Jak zrobić sobie taki efekt ›wietlny do pokoju. Chodzi o jakby
odbicie od falującej wody na ›cianach, suficie - jak na basenie. "

Ma‚o precyzyjne? :-)

Napisz ksiąkę, będzie precyzyjnie. Sądząc z Twoich wpisw na NNTP gdzie
opadasz w halucynacje, zapominasz, "konfabulujesz", proponuję aby›
skorzysta‚ w linka i poprowadzi‚ dyskusję dalej. Wystarczy e dopiszesz
"Podaj jeszcze 30 rnych/innych rozwiąza„" Smile
W sumie, masz gotowca.
https://gemini.google.com/share/a2302416e391

poprosi‚em jeszcze parę razy o kolejne 30 ... albo ludzie to ju
przerobili na setki sposobw, albo wyszukuje wszystkie "woda" i
"efekt". Chocia

"Strumie„ powietrza w przezroczystym elu: Wt‚aczanie bąbelkw
powietrza do gęstego elu do w‚osw/USG, ktry jest powoli mieszany."

o wodzie tu nic nie ma ...

"Mechaniczny skaner szczelinowy (Slit-scan): Obracający się bęben z
wyciętymi szczelinami, wewnątrz ktrego znajduje się drugi bęben z
teksturą."

Moe i nie szuka‚ "wody" ... ale reszta do›c trafna.


J.

Waldek Hebisch
Guest

Mon Apr 06, 2026 12:46 am   



J.F <jfox_xnospamx@poczta.onet.pl> wrote:
Quote:
On Tue, 31 Mar 2026 11:44:34 +0200, x???????????? wrote:
W dniu 30.03.2026 o 18:21, J.F pisze:
No ale przecież wypluwa pomysły z bazy.
Czyli ktoś już ją wcześniej nakarmił.

Idąc do pełnego sklepu też kombinujesz czy półki są puste?

W sklepie jest to, co sklep zamówił.

W LLM to, czym nakarmili.

Człowiek pisze jak go nauczyli. Ale to jest w pełni deteministyczne,
LLM używa liczby pseudolosowe i zwykle kolejne odpowidzi są różne.

A propo, są w miare stare teksty jak pobudzać kreatywność/wynalazczość.
Jeden przepis jest taki: zidentyfikuj istotne aspekty/cechy, zbuduj
z tego tabelkę (produkt kartezjański), wpisz znane rzeczy w pozycje
tabelkie potem patrz na puste pozycje, może któraś na sens.
Jak ma to masz "nową" rzecz. O LLM możesz myśleć w ten sposób
że statystyka tekstów które widział implicite buduje podobne
tabelki, potem LLM losuje pozycję z prawdopodobieństwem proporcjonalnym
do podobieństwa z tym co widział. To produkuje całkiem sporo
"nowych" rzeczy. Do tego zbiory uczące dla LLM są duże, sam
tyle nie przeczytasz.

Oczywiście kawałki z których składa się "nowe" są znane, ale
nie trzeba wielu kawałków by nich złożyć coś co się wcześniej
nie pojawiło. Ludzie miewają kłopoty z wymyślaniem nowych
kombinacji stąd te przepisy jak wyżej.

Kłopot z LLM jest taki że LLM nie rozumie problemu i próbuje
"kreatywne" rozwiązania tam gdzie rozumiejąc można użyć
algorytm.

--
Waldek Hebisch

J.F
Guest

Mon Apr 06, 2026 3:26 pm   



On Sun, 5 Apr 2026 22:46:37 -0000 (UTC), Waldek Hebisch wrote:
Quote:
J.F <jfox_xnospamx@poczta.onet.pl> wrote:
On Tue, 31 Mar 2026 11:44:34 +0200, x???????????? wrote:
W dniu 30.03.2026 o 18:21, J.F pisze:
No ale przecież wypluwa pomysły z bazy.
Czyli ktoś już ją wcześniej nakarmił.

Idąc do pełnego sklepu też kombinujesz czy półki są puste?

W sklepie jest to, co sklep zamówił.

W LLM to, czym nakarmili.

Człowiek pisze jak go nauczyli. Ale to jest w pełni deteministyczne,
LLM używa liczby pseudolosowe i zwykle kolejne odpowidzi są różne.

A propo, są w miare stare teksty jak pobudzać kreatywność/wynalazczość.
Jeden przepis jest taki: zidentyfikuj istotne aspekty/cechy, zbuduj
z tego tabelkę (produkt kartezjański), wpisz znane rzeczy w pozycje
tabelkie potem patrz na puste pozycje, może któraś na sens.
Jak ma to masz "nową" rzecz. O LLM możesz myśleć w ten sposób
że statystyka tekstów które widział implicite buduje podobne
tabelki, potem LLM losuje pozycję z prawdopodobieństwem proporcjonalnym
do podobieństwa z tym co widział. To produkuje całkiem sporo
"nowych" rzeczy. Do tego zbiory uczące dla LLM są duże, sam
tyle nie przeczytasz.

Oczywiście kawałki z których składa się "nowe" są znane, ale
nie trzeba wielu kawałków by nich złożyć coś co się wcześniej
nie pojawiło. Ludzie miewają kłopoty z wymyślaniem nowych
kombinacji stąd te przepisy jak wyżej.

Kłopot z LLM jest taki że LLM nie rozumie problemu i próbuje
"kreatywne" rozwiązania tam gdzie rozumiejąc można użyć
algorytm.

No ale akurat tu chcemy jakiś kreatywnych pomysłów.
Trochę wątpię, aby LLM je wymyślał, szczególnie, że jak zauważasz "nie
rozumie problemu".
Raczej trafił na jakąś dyskusję internetową, gdzie były różne pomysły
wymienione, i po prostu przytoczył.

Tylko o co by go tu spytać, żeby nigdzie nie było gotowych pomysłów,
i musiałby pomyśleć ?


J.

Waldek Hebisch
Guest

Mon Apr 06, 2026 10:23 pm   



J.F <jfox_xnospamx@poczta.onet.pl> wrote:
Quote:
On Sun, 5 Apr 2026 22:46:37 -0000 (UTC), Waldek Hebisch wrote:
J.F <jfox_xnospamx@poczta.onet.pl> wrote:
On Tue, 31 Mar 2026 11:44:34 +0200, x???????????? wrote:
W dniu 30.03.2026 o 18:21, J.F pisze:
No ale przecież wypluwa pomysły z bazy.
Czyli ktoś już ją wcześniej nakarmił.

Idąc do pełnego sklepu też kombinujesz czy półki są puste?

W sklepie jest to, co sklep zamówił.

W LLM to, czym nakarmili.

Człowiek pisze jak go nauczyli. Ale to jest w pełni deteministyczne,
LLM używa liczby pseudolosowe i zwykle kolejne odpowidzi są różne.

A propo, są w miare stare teksty jak pobudzać kreatywność/wynalazczość.
Jeden przepis jest taki: zidentyfikuj istotne aspekty/cechy, zbuduj
z tego tabelkę (produkt kartezjański), wpisz znane rzeczy w pozycje
tabelkie potem patrz na puste pozycje, może któraś na sens.
Jak ma to masz "nową" rzecz. O LLM możesz myśleć w ten sposób
że statystyka tekstów które widział implicite buduje podobne
tabelki, potem LLM losuje pozycję z prawdopodobieństwem proporcjonalnym
do podobieństwa z tym co widział. To produkuje całkiem sporo
"nowych" rzeczy. Do tego zbiory uczące dla LLM są duże, sam
tyle nie przeczytasz.

Oczywiście kawałki z których składa się "nowe" są znane, ale
nie trzeba wielu kawałków by nich złożyć coś co się wcześniej
nie pojawiło. Ludzie miewają kłopoty z wymyślaniem nowych
kombinacji stąd te przepisy jak wyżej.

Kłopot z LLM jest taki że LLM nie rozumie problemu i próbuje
"kreatywne" rozwiązania tam gdzie rozumiejąc można użyć
algorytm.

No ale akurat tu chcemy jakiś kreatywnych pomysłów.
Trochę wątpię, aby LLM je wymyślał, szczególnie, że jak zauważasz "nie
rozumie problemu".
Raczej trafił na jakąś dyskusję internetową, gdzie były różne pomysły
wymienione, i po prostu przytoczył.

Tylko o co by go tu spytać, żeby nigdzie nie było gotowych pomysłów,
i musiałby pomyśleć ?

Widzę że nie rozmiesz co chciałem powiedzieć, spróbuję jeszcze
raz. Przed LLM były modele Markowa. Bardzo prosty model Markowa
może działać tak że dla bierzącego słowa wybiera następne zgodnie
z wyuczoną tabelką prawdopodobieństw. W efekcie, para kolejnych
słów pojawi się na wyjściu tylko wtedy gdy była w zbiorze uczącym.
Ale dłuże ciągi słów mogą być "nowe". Konkretniej, zbiór
uczący może zawierać frazy "dzień dobry" i "dobry wieczur".
Model startując ze słowa "dzień" może wybrać "dobry" jako
następne słowo, bo widział odpowiednią parę. Po "dobry"
model może wybrać "wieczur" bo też widział odpowiednią
parę. Razem to daje "dzień dobry wieczur", co ma raczej małą
szansę na pojawienie się w zbiorze uczącym. Robiono praktyczne
eksperymenty z modelami Markowa (różnymi wariantami), typowy wynik
był taki że krótkie ciągi często powtarzały zbiór uczący,
długie w widoczny sposób nie miały sensu. Ale przy pośredniej
długości modele Markowa produkowały fajnie brzmiące "prawie
sensowne" frazy. Np. jak byś chciał wymyśleć terminologię
do powieści SF, to model uczony na tekstach naukowych
produkował ładnie brzmiące nowe frazy.

Wracając do LLM, nikt nie potrafi dokładnie powiedzieć co one
robią. Ale jest dość prawdopodobne że są one lepszą wersją
modeli Markowa. Lepszą np. w tym że współczesne LLM przestrzega
reguł języka nawet jak dotyczy to odległych słów, z czym
modele Markowa sobie nie dawały rady. Jako że LLM lepiej
modeluje język, to jest mniej skłonny produkować innowacje
językowe. Ale to nie przeszkadza w produkowaniu nowych
rzeczy. Oczywiście, jak jest sporo przykładów które
model ocenia jako adekwatene, to jest spora szansa że
powtórzy któryś lub wyprodukuje jakąś kombinację. Ale
jak zapytasz o coś mniej popularnego to będzie tworzył.

--
Waldek Hebisch

Mirek
Guest

Mon Apr 06, 2026 11:15 pm   



W dniu 6.04.2026 o 22:23, Waldek Hebisch pisze:

Quote:
Razem to daje "dzień dobry wieczur", co ma raczej małą
szansę na pojawienie się w zbiorze uczącym.

Chłopie to nawet czytać jest ciężko. Za pierwszym razem zobaczyłem
"wilczur".
Natomiast "dzień dobry wieczór" jak najbardziej pojawiło się lata temu.
Tak się witał Marek Niedźwiecki prowadząc listę przebojów.



--
Mirek

J.F
Guest

Tue Apr 07, 2026 9:40 am   



On Mon, 6 Apr 2026 23:15:52 +0200, Mirek wrote:
Quote:
W dniu 6.04.2026 o 22:23, Waldek Hebisch pisze:
Razem to daje "dzień dobry wieczur", co ma raczej małą
szansę na pojawienie się w zbiorze uczącym.

Chłopie to nawet czytać jest ciężko. Za pierwszym razem zobaczyłem
"wilczur".
Natomiast "dzień dobry wieczór" jak najbardziej pojawiło się lata temu.
Tak się witał Marek Niedźwiecki prowadząc listę przebojów.

tak czy inaczej - odpowiedzi dzisiejszych czatów dalece wykraczają
poza zwykłe prawdopodobnienstwo następstwa słów.

J.

x
Guest

Wed Apr 08, 2026 3:06 pm   



W dniu 7.04.2026 o 09:40, J.F pisze:

Quote:
Razem to daje "dzień dobry wieczur", co ma raczej małą
szansę na pojawienie się w zbiorze uczącym.

Chłopie to nawet czytać jest ciężko. Za pierwszym razem zobaczyłem
"wilczur".
Natomiast "dzień dobry wieczór" jak najbardziej pojawiło się lata temu.
Tak się witał Marek Niedźwiecki prowadząc listę przebojów.

tak czy inaczej - odpowiedzi dzisiejszych czatów dalece wykraczają
poza zwykłe prawdopodobnienstwo następstwa słów.

https://gemini.google.com/share/567e0df4344e :)

--
Pixel
Albo PiS albo Polska

J.F
Guest

Wed Apr 08, 2026 3:17 pm   



On Wed, 8 Apr 2026 15:06:17 +0200, …ǝxᴉ“’Âí íí í wrote:
Quote:
W dniu 7.04.2026 o 09:40, J.F pisze:

Razem to daje "dzie„ dobry wieczur", co ma raczej ma‚Ä…
szansę na pojawienie się w zbiorze uczącym.

Ch‚opie to nawet czytać jest cięko. Za pierwszym razem zobaczy‚em
"wilczur".
Natomiast "dzie„ dobry wieczr" jak najbardziej pojawi‚o się lata temu.
Tak się wita‚ Marek Niedwiecki prowadząc listę przebojw.

tak czy inaczej - odpowiedzi dzisiejszych czatw dalece wykraczają
poza zwyk‚e prawdopodobnienstwo następstwa s‚w.

https://gemini.google.com/share/567e0df4344e Smile

Cwana bestia :-)

To spyta‚em jeszcze o Marka, Roberta i Andrzeja :-)

Ma fantazję :-)

Ciekawe - wyczyta‚ gdzie›, czy sam wymy›li‚ ... no ale wymyslania tez
musia‚ sie nauczyc ...


J.

x
Guest

Wed Apr 08, 2026 8:17 pm   



W dniu 8.04.2026 o 15:17, J.F pisze:

Quote:
Ciekawe - wyczytał gdzieś, czy sam wymyślił ... no ale wymyslania tez
musiał sie nauczyc ...


To akurat umie każde dziecko kiedy zaczyna mówić :)

--
Pixel
Albo PiS albo Polska

J.F
Guest

Wed Apr 08, 2026 9:53 pm   



On Wed, 8 Apr 2026 20:17:38 +0200, …ǝxᴉ“’Âí íí í wrote:
Quote:
W dniu 8.04.2026 o 15:17, J.F pisze:
Ciekawe - wyczyta‚ gdzie›, czy sam wymy›li‚ ... no ale wymyslania tez
musia‚ sie nauczyc ...

To akurat umie kade dziecko kiedy zaczyna mwić Smile

Mwisz, e uczyli jak ma‚e dziecko?

No ale jeszcze jak znaczenie wyt‚umaczy‚ ...

J.

Jarosław Sokołowski
Guest

Wed Apr 08, 2026 10:17 pm   



Pan J.F napisa:

Quote:
Ciekawe - wyczyta gdzie, czy sam wymyli ... no ale
wymyslania tez musia sie nauczyc ...
To akurat umie kade dziecko kiedy zaczyna mówi :)

Mówisz, e uczyli jak mae dziecko?

Bardzo trafne porównanie. Przez dziesiciolecia próbowano uczyni
komputer inteligentnym sposobic go tak, jak w szkole uczy si
due dzieci jzyków obcych. Gramatyka, reguki, zeszycik, tabelki
z deklinacjami. Wychodzio jak wychodzio, w kocu metod porzucono.
Teraz pocztki kontaktów s takie, jak z niemowlakiem. Skutki za
to wygldaj o wiele lepiej.

Jarek

--
....i czym si róni Macig od Nacigu, a take kto ma najmniejsz w Kosmosie
pielownic wzdun i dlaczego pchy smoczkotykie mchu je nie chc, i na
czym polega gra zwana Balansyer Zadni cigany, i ile byo ziarenek lwichwostu
w tej kupce, co j Abrukwian Polistny nog trci, kiedy si polizn...

J.F
Guest

Thu Apr 09, 2026 7:45 am   



On Wed, 8 Apr 2026 22:17:52 +0200, Jarosław Sokołowski wrote:
Quote:
Pan J.F napisał:
Ciekawe - wyczytał gdzieś, czy sam wymyślił ... no ale
wymyslania tez musiał sie nauczyc ...
To akurat umie każde dziecko kiedy zaczyna mówić :)

Mówisz, że uczyli jak małe dziecko?

Bardzo trafne porównanie. Przez dziesięciolecia próbowano uczynić
komputer inteligentnym sposobiąc go tak, jak w szkole uczy się
duże dzieci języków obcych. Gramatyka, regułki, zeszycik, tabelki
z deklinacjami. Wychodziło jak wychodziło, w końcu metodę porzucono.
Teraz początki kontaktów są takie, jak z niemowlakiem. Skutki za
to wyglądają o wiele lepiej.

No cóz - AI kusiło ludzi od dawna, szczególnie, jak sobie nie mogli
poradzić z programem/algorytmem. To niemal tak stare, jak komputery.

Ale obecny wysyp ... hardware się rozwinął?

Za to ciekaw jestem, czy te obecne czaty uczyli jak małe dzieci, tzn
przechodziły przez etap gaworzenia, czy od razu na wyzszy level.

J.

Jarosław Sokołowski
Guest

Thu Apr 09, 2026 12:53 pm   



Pan J.F napisa:

Quote:
Bardzo trafne porównanie. Przez dziesiciolecia próbowano uczyni
komputer inteligentnym sposobic go tak, jak w szkole uczy si
due dzieci jzyków obcych. Gramatyka, reguki, zeszycik, tabelki
z deklinacjami. Wychodzio jak wychodzio, w kocu metod porzucono.
Teraz pocztki kontaktów s takie, jak z niemowlakiem. Skutki za
to wygldaj o wiele lepiej.

No cóz - AI kusio ludzi od dawna, szczególnie, jak sobie nie mogli
poradzi z programem/algorytmem. To niemal tak stare, jak komputery.

Bardzo dugo liczyli na to, e poradz sobie wasnymi algorytmami.
Alan Turing w roku 1950 prognozowa, e AI pojawi si oko roku
1990, bo wtedy komputery bd miay kilkadziesit MB pamici. Tyle
jego zdaniem powinno wystarczy do osignicia celu. Przedstawi
nawet szacunki, ile czasu zajmie ludziom (konkretnym) wypenianie
tej pamici. Bazowa na tym, ile on sam potrafi dziennie napisa
kodu jako programista.

Quote:
Ale obecny wysyp ... hardware si rozwin?

Nie, nie hardware. Dzisiaj nawet z tym biurkowym sporo mona zrobi,
a podobny poziom dostpny by duo wczeniej.

Quote:
Za to ciekaw jestem, czy te obecne czaty uczyli jak mae dzieci, tzn
przechodziy przez etap gaworzenia, czy od razu na wyzszy level.

Gaworzenie jest wiczeniem aparatu mowy, z samymi funkcjami jzykowymi
zwizane jest w sposób luny. A "level" widoczny w kilku pierwszych
zdaniach wypowiadanych przez niejednego modego czowieka potrafi by
bardzo wysoki.

--
Jarek

J.F
Guest

Thu Apr 09, 2026 9:12 pm   



On Thu, 9 Apr 2026 12:53:26 +0200, Jarosław Sokołowski wrote:
Quote:
Pan J.F napisał:
Bardzo trafne porównanie. Przez dziesięciolecia próbowano uczynić
komputer inteligentnym sposobiąc go tak, jak w szkole uczy się
duże dzieci języków obcych. Gramatyka, regułki, zeszycik, tabelki
z deklinacjami. Wychodziło jak wychodziło, w końcu metodę porzucono.
Teraz początki kontaktów są takie, jak z niemowlakiem. Skutki za
to wyglądają o wiele lepiej.

No cóz - AI kusiło ludzi od dawna, szczególnie, jak sobie nie mogli
poradzić z programem/algorytmem. To niemal tak stare, jak komputery.

Bardzo długo liczyli na to, że poradzą sobie własnymi algorytmami.

Podobno pierwszy teoretyczny uproszczony model neuronu pojawił sie w
1943 (McCulloch/Pitts).
Komputerów chyba jeszcze nie było ... no może na przekaźnikach.

Quote:
Alan Turing w roku 1950 prognozował, że AI pojawi się okoł roku
1990, bo wtedy komputery będą miały kilkadziesiąt MB pamięci. Tyle

Wow, a jak on obliczył, ile będzie pamięci?

Quote:
jego zdaniem powinno wystarczyć do osiągnięcia celu. Przedstawił
nawet szacunki, ile czasu zajmie ludziom (konkretnym) wypełnianie
tej pamięci. Bazował na tym, ile on sam potrafi dziennie napisać
kodu jako programista.

Ale obecny wysyp ... hardware się rozwinął?

Nie, nie hardware. Dzisiaj nawet z tym biurkowym sporo można zrobić,
a podobny poziom dostępny był dużo wcześniej.

No ale zasób wiedzy tych czatów jest zdecydowanie większy ...

Quote:
Za to ciekaw jestem, czy te obecne czaty uczyli jak małe dzieci, tzn
przechodziły przez etap gaworzenia, czy od razu na wyzszy level.

Gaworzenie jest ćwiczeniem aparatu mowy, z samymi funkcjami językowymi
związane jest w sposób luźny. A "level" widoczny w kilku pierwszych
zdaniach wypowiadanych przez niejednego młodego człowieka potrafi być
bardzo wysoki.

To fakt - parę miesięcy i z pojedynczych słów dziecko składa zdania ..

J.

Goto page Previous  1, 2, 3, 4  Next

elektroda NewsGroups Forum Index - Elektronika Polska - Jak stworzyć realistyczny efekt wodnych refleksów na ścianach w pokoju?

NOWY TEMAT

Regulamin - Zasady uzytkowania Polityka prywatnosci Kontakt RTV map News map