Goto page Previous 1, 2, 3, 4 Next
x
Guest
Tue Mar 31, 2026 10:38 pm
W dniu 31.03.2026 o 18:13, J.F pisze:
Quote:
Idąc do pełnego sklepu też kombinujesz czy półki są puste?
W sklepie jest to, co sklep zamówił.
W LLM to, czym nakarmili.
Wszystkim czym mogli
[...]
Quote:
AI nie zapyta jaką śrubkę chcesz. Ty musisz wiedzieć co chcesz.
" Jak zrobić sobie taki efekt świetlny do pokoju. Chodzi o jakby
odbicie od falującej wody na ścianach, suficie - jak na basenie. "
Mało precyzyjne?
Napisz książkę, będzie precyzyjnie. Sądząc z Twoich wpisów na NNTP gdzie
opadasz w halucynacje, zapominasz, "konfabulujesz", proponuję abyś
skorzystał w linka i poprowadził dyskusję dalej. Wystarczy że dopiszesz
"Podaj jeszcze 30 różnych/innych rozwiązań"
W sumie, masz gotowca.
https://gemini.google.com/share/a2302416e391
--
Pixel
Albo PiS albo Polska
J.F
Guest
Wed Apr 01, 2026 5:53 am
On Tue, 31 Mar 2026 22:38:48 +0200,
Çxá´Âí íí í wrote:
Quote:
W dniu 31.03.2026 o 18:13, J.F pisze:
IdÄ
c do penego sklepu te kombinujesz czy pki sÄ
puste?
W sklepie jest to, co sklep zamwi.
W LLM to, czym nakarmili.
Wszystkim czym mogli
No - i widaÄ ktos ju opisa jak moa takie efekty uzyskaÄ.
Quote:
[...]
AI nie zapyta jakÄ
rubkÄ chcesz. Ty musisz wiedzieÄ co chcesz.
" Jak zrobiÄ sobie taki efekt wietlny do pokoju. Chodzi o jakby
odbicie od falujÄ
cej wody na cianach, suficie - jak na basenie. "
Mao precyzyjne? :-)
Napisz ksiÄ
kÄ, bÄdzie precyzyjnie. SÄ
dzÄ
c z Twoich wpisw na NNTP gdzie
opadasz w halucynacje, zapominasz, "konfabulujesz", proponujÄ aby
skorzysta w linka i poprowadzi dyskusjÄ dalej. Wystarczy e dopiszesz
"Podaj jeszcze 30 rnych/innych rozwiÄ
za"
W sumie, masz gotowca.
https://gemini.google.com/share/a2302416e391
poprosiem jeszcze parÄ razy o kolejne 30 ... albo ludzie to ju
przerobili na setki sposobw, albo wyszukuje wszystkie "woda" i
"efekt". Chocia
"Strumie powietrza w przezroczystym elu: Wtaczanie bÄ
belkw
powietrza do gÄstego elu do wosw/USG, ktry jest powoli mieszany."
o wodzie tu nic nie ma ...
"Mechaniczny skaner szczelinowy (Slit-scan): ObracajÄ
cy siÄ bÄben z
wyciÄtymi szczelinami, wewnÄ
trz ktrego znajduje siÄ drugi bÄben z
teksturÄ
."
Moe i nie szuka "wody" ... ale reszta doc trafna.
J.
Waldek Hebisch
Guest
Mon Apr 06, 2026 12:46 am
J.F <jfox_xnospamx@poczta.onet.pl> wrote:
Quote:
On Tue, 31 Mar 2026 11:44:34 +0200, x???????????? wrote:
W dniu 30.03.2026 o 18:21, J.F pisze:
No ale przecież wypluwa pomysły z bazy.
Czyli ktoś już ją wcześniej nakarmił.
Idąc do pełnego sklepu też kombinujesz czy półki są puste?
W sklepie jest to, co sklep zamówił.
W LLM to, czym nakarmili.
Człowiek pisze jak go nauczyli. Ale to jest w pełni deteministyczne,
LLM używa liczby pseudolosowe i zwykle kolejne odpowidzi są różne.
A propo, są w miare stare teksty jak pobudzać kreatywność/wynalazczość.
Jeden przepis jest taki: zidentyfikuj istotne aspekty/cechy, zbuduj
z tego tabelkę (produkt kartezjański), wpisz znane rzeczy w pozycje
tabelkie potem patrz na puste pozycje, może któraś na sens.
Jak ma to masz "nową" rzecz. O LLM możesz myśleć w ten sposób
że statystyka tekstów które widział implicite buduje podobne
tabelki, potem LLM losuje pozycję z prawdopodobieństwem proporcjonalnym
do podobieństwa z tym co widział. To produkuje całkiem sporo
"nowych" rzeczy. Do tego zbiory uczące dla LLM są duże, sam
tyle nie przeczytasz.
Oczywiście kawałki z których składa się "nowe" są znane, ale
nie trzeba wielu kawałków by nich złożyć coś co się wcześniej
nie pojawiło. Ludzie miewają kłopoty z wymyślaniem nowych
kombinacji stąd te przepisy jak wyżej.
Kłopot z LLM jest taki że LLM nie rozumie problemu i próbuje
"kreatywne" rozwiązania tam gdzie rozumiejąc można użyć
algorytm.
--
Waldek Hebisch
J.F
Guest
Mon Apr 06, 2026 3:26 pm
On Sun, 5 Apr 2026 22:46:37 -0000 (UTC), Waldek Hebisch wrote:
Quote:
J.F <jfox_xnospamx@poczta.onet.pl> wrote:
On Tue, 31 Mar 2026 11:44:34 +0200, x???????????? wrote:
W dniu 30.03.2026 o 18:21, J.F pisze:
No ale przecież wypluwa pomysły z bazy.
Czyli ktoś już ją wcześniej nakarmił.
Idąc do pełnego sklepu też kombinujesz czy półki są puste?
W sklepie jest to, co sklep zamówił.
W LLM to, czym nakarmili.
Człowiek pisze jak go nauczyli. Ale to jest w pełni deteministyczne,
LLM używa liczby pseudolosowe i zwykle kolejne odpowidzi są różne.
A propo, są w miare stare teksty jak pobudzać kreatywność/wynalazczość.
Jeden przepis jest taki: zidentyfikuj istotne aspekty/cechy, zbuduj
z tego tabelkę (produkt kartezjański), wpisz znane rzeczy w pozycje
tabelkie potem patrz na puste pozycje, może któraś na sens.
Jak ma to masz "nową" rzecz. O LLM możesz myśleć w ten sposób
że statystyka tekstów które widział implicite buduje podobne
tabelki, potem LLM losuje pozycję z prawdopodobieństwem proporcjonalnym
do podobieństwa z tym co widział. To produkuje całkiem sporo
"nowych" rzeczy. Do tego zbiory uczące dla LLM są duże, sam
tyle nie przeczytasz.
Oczywiście kawałki z których składa się "nowe" są znane, ale
nie trzeba wielu kawałków by nich złożyć coś co się wcześniej
nie pojawiło. Ludzie miewają kłopoty z wymyślaniem nowych
kombinacji stąd te przepisy jak wyżej.
Kłopot z LLM jest taki że LLM nie rozumie problemu i próbuje
"kreatywne" rozwiązania tam gdzie rozumiejąc można użyć
algorytm.
No ale akurat tu chcemy jakiś kreatywnych pomysłów.
Trochę wątpię, aby LLM je wymyślał, szczególnie, że jak zauważasz "nie
rozumie problemu".
Raczej trafił na jakąś dyskusję internetową, gdzie były różne pomysły
wymienione, i po prostu przytoczył.
Tylko o co by go tu spytać, żeby nigdzie nie było gotowych pomysłów,
i musiałby pomyśleć ?
J.
Waldek Hebisch
Guest
Mon Apr 06, 2026 10:23 pm
J.F <jfox_xnospamx@poczta.onet.pl> wrote:
Quote:
On Sun, 5 Apr 2026 22:46:37 -0000 (UTC), Waldek Hebisch wrote:
J.F <jfox_xnospamx@poczta.onet.pl> wrote:
On Tue, 31 Mar 2026 11:44:34 +0200, x???????????? wrote:
W dniu 30.03.2026 o 18:21, J.F pisze:
No ale przecież wypluwa pomysły z bazy.
Czyli ktoś już ją wcześniej nakarmił.
Idąc do pełnego sklepu też kombinujesz czy półki są puste?
W sklepie jest to, co sklep zamówił.
W LLM to, czym nakarmili.
Człowiek pisze jak go nauczyli. Ale to jest w pełni deteministyczne,
LLM używa liczby pseudolosowe i zwykle kolejne odpowidzi są różne.
A propo, są w miare stare teksty jak pobudzać kreatywność/wynalazczość.
Jeden przepis jest taki: zidentyfikuj istotne aspekty/cechy, zbuduj
z tego tabelkę (produkt kartezjański), wpisz znane rzeczy w pozycje
tabelkie potem patrz na puste pozycje, może któraś na sens.
Jak ma to masz "nową" rzecz. O LLM możesz myśleć w ten sposób
że statystyka tekstów które widział implicite buduje podobne
tabelki, potem LLM losuje pozycję z prawdopodobieństwem proporcjonalnym
do podobieństwa z tym co widział. To produkuje całkiem sporo
"nowych" rzeczy. Do tego zbiory uczące dla LLM są duże, sam
tyle nie przeczytasz.
Oczywiście kawałki z których składa się "nowe" są znane, ale
nie trzeba wielu kawałków by nich złożyć coś co się wcześniej
nie pojawiło. Ludzie miewają kłopoty z wymyślaniem nowych
kombinacji stąd te przepisy jak wyżej.
Kłopot z LLM jest taki że LLM nie rozumie problemu i próbuje
"kreatywne" rozwiązania tam gdzie rozumiejąc można użyć
algorytm.
No ale akurat tu chcemy jakiś kreatywnych pomysłów.
Trochę wątpię, aby LLM je wymyślał, szczególnie, że jak zauważasz "nie
rozumie problemu".
Raczej trafił na jakąś dyskusję internetową, gdzie były różne pomysły
wymienione, i po prostu przytoczył.
Tylko o co by go tu spytać, żeby nigdzie nie było gotowych pomysłów,
i musiałby pomyśleć ?
Widzę że nie rozmiesz co chciałem powiedzieć, spróbuję jeszcze
raz. Przed LLM były modele Markowa. Bardzo prosty model Markowa
może działać tak że dla bierzącego słowa wybiera następne zgodnie
z wyuczoną tabelką prawdopodobieństw. W efekcie, para kolejnych
słów pojawi się na wyjściu tylko wtedy gdy była w zbiorze uczącym.
Ale dłuże ciągi słów mogą być "nowe". Konkretniej, zbiór
uczący może zawierać frazy "dzień dobry" i "dobry wieczur".
Model startując ze słowa "dzień" może wybrać "dobry" jako
następne słowo, bo widział odpowiednią parę. Po "dobry"
model może wybrać "wieczur" bo też widział odpowiednią
parę. Razem to daje "dzień dobry wieczur", co ma raczej małą
szansę na pojawienie się w zbiorze uczącym. Robiono praktyczne
eksperymenty z modelami Markowa (różnymi wariantami), typowy wynik
był taki że krótkie ciągi często powtarzały zbiór uczący,
długie w widoczny sposób nie miały sensu. Ale przy pośredniej
długości modele Markowa produkowały fajnie brzmiące "prawie
sensowne" frazy. Np. jak byś chciał wymyśleć terminologię
do powieści SF, to model uczony na tekstach naukowych
produkował ładnie brzmiące nowe frazy.
Wracając do LLM, nikt nie potrafi dokładnie powiedzieć co one
robią. Ale jest dość prawdopodobne że są one lepszą wersją
modeli Markowa. Lepszą np. w tym że współczesne LLM przestrzega
reguł języka nawet jak dotyczy to odległych słów, z czym
modele Markowa sobie nie dawały rady. Jako że LLM lepiej
modeluje język, to jest mniej skłonny produkować innowacje
językowe. Ale to nie przeszkadza w produkowaniu nowych
rzeczy. Oczywiście, jak jest sporo przykładów które
model ocenia jako adekwatene, to jest spora szansa że
powtórzy któryś lub wyprodukuje jakąś kombinację. Ale
jak zapytasz o coś mniej popularnego to będzie tworzył.
--
Waldek Hebisch
Mirek
Guest
Mon Apr 06, 2026 11:15 pm
W dniu 6.04.2026 o 22:23, Waldek Hebisch pisze:
Quote:
Razem to daje "dzień dobry wieczur", co ma raczej małą
szansę na pojawienie się w zbiorze uczącym.
Chłopie to nawet czytać jest ciężko. Za pierwszym razem zobaczyłem
"wilczur".
Natomiast "dzień dobry wieczór" jak najbardziej pojawiło się lata temu.
Tak się witał Marek Niedźwiecki prowadząc listę przebojów.
--
Mirek
J.F
Guest
Tue Apr 07, 2026 9:40 am
On Mon, 6 Apr 2026 23:15:52 +0200, Mirek wrote:
Quote:
W dniu 6.04.2026 o 22:23, Waldek Hebisch pisze:
Razem to daje "dzień dobry wieczur", co ma raczej małą
szansę na pojawienie się w zbiorze uczącym.
Chłopie to nawet czytać jest ciężko. Za pierwszym razem zobaczyłem
"wilczur".
Natomiast "dzień dobry wieczór" jak najbardziej pojawiło się lata temu.
Tak się witał Marek Niedźwiecki prowadząc listę przebojów.
tak czy inaczej - odpowiedzi dzisiejszych czatów dalece wykraczają
poza zwykłe prawdopodobnienstwo następstwa słów.
J.
x
Guest
Wed Apr 08, 2026 3:06 pm
W dniu 7.04.2026 o 09:40, J.F pisze:
Quote:
Razem to daje "dzień dobry wieczur", co ma raczej małą
szansę na pojawienie się w zbiorze uczącym.
Chłopie to nawet czytać jest ciężko. Za pierwszym razem zobaczyłem
"wilczur".
Natomiast "dzień dobry wieczór" jak najbardziej pojawiło się lata temu.
Tak się witał Marek Niedźwiecki prowadząc listę przebojów.
tak czy inaczej - odpowiedzi dzisiejszych czatów dalece wykraczają
poza zwykłe prawdopodobnienstwo następstwa słów.
https://gemini.google.com/share/567e0df4344e :)
--
Pixel
Albo PiS albo Polska
J.F
Guest
Wed Apr 08, 2026 3:17 pm
On Wed, 8 Apr 2026 15:06:17 +0200,
Çxá´Âí íí í wrote:
Quote:
W dniu 7.04.2026 o 09:40, J.F pisze:
Razem to daje "dzie dobry wieczur", co ma raczej maÄ
szansÄ na pojawienie siÄ w zbiorze uczÄ
cym.
Chopie to nawet czytaÄ jest ciÄko. Za pierwszym razem zobaczyem
"wilczur".
Natomiast "dzie dobry wieczr" jak najbardziej pojawio siÄ lata temu.
Tak siÄ wita Marek Niedwiecki prowadzÄ
c listÄ przebojw.
tak czy inaczej - odpowiedzi dzisiejszych czatw dalece wykraczajÄ
poza zwyke prawdopodobnienstwo nastÄpstwa sw.
https://gemini.google.com/share/567e0df4344e
Cwana bestia :-)
To spytaem jeszcze o Marka, Roberta i Andrzeja :-)
Ma fantazjÄ :-)
Ciekawe - wyczyta gdzie, czy sam wymyli ... no ale wymyslania tez
musia sie nauczyc ...
J.
x
Guest
Wed Apr 08, 2026 8:17 pm
W dniu 8.04.2026 o 15:17, J.F pisze:
Quote:
Ciekawe - wyczytał gdzieś, czy sam wymyślił ... no ale wymyslania tez
musiał sie nauczyc ...
To akurat umie każde dziecko kiedy zaczyna mówić :)
--
Pixel
Albo PiS albo Polska
J.F
Guest
Wed Apr 08, 2026 9:53 pm
On Wed, 8 Apr 2026 20:17:38 +0200,
Çxá´Âí íí í wrote:
Quote:
W dniu 8.04.2026 o 15:17, J.F pisze:
Ciekawe - wyczyta gdzie, czy sam wymyli ... no ale wymyslania tez
musia sie nauczyc ...
To akurat umie kade dziecko kiedy zaczyna mwiÄ
Mwisz, e uczyli jak mae dziecko?
No ale jeszcze jak znaczenie wytumaczy ...
J.
Jarosław Sokołowski
Guest
Wed Apr 08, 2026 10:17 pm
Pan J.F napisa:
Quote:
Ciekawe - wyczyta gdzie, czy sam wymyli ... no ale
wymyslania tez musia sie nauczyc ...
To akurat umie kade dziecko kiedy zaczyna mówi :)
Mówisz, e uczyli jak mae dziecko?
Bardzo trafne porównanie. Przez dziesiciolecia próbowano uczyni
komputer inteligentnym sposobic go tak, jak w szkole uczy si
due dzieci jzyków obcych. Gramatyka, reguki, zeszycik, tabelki
z deklinacjami. Wychodzio jak wychodzio, w kocu metod porzucono.
Teraz pocztki kontaktów s takie, jak z niemowlakiem. Skutki za
to wygldaj o wiele lepiej.
Jarek
--
....i czym si róni Macig od Nacigu, a take kto ma najmniejsz w Kosmosie
pielownic wzdun i dlaczego pchy smoczkotykie mchu je nie chc, i na
czym polega gra zwana Balansyer Zadni cigany, i ile byo ziarenek lwichwostu
w tej kupce, co j Abrukwian Polistny nog trci, kiedy si polizn...
J.F
Guest
Thu Apr 09, 2026 7:45 am
On Wed, 8 Apr 2026 22:17:52 +0200, Jarosław Sokołowski wrote:
Quote:
Pan J.F napisał:
Ciekawe - wyczytał gdzieś, czy sam wymyślił ... no ale
wymyslania tez musiał sie nauczyc ...
To akurat umie każde dziecko kiedy zaczyna mówić :)
Mówisz, że uczyli jak małe dziecko?
Bardzo trafne porównanie. Przez dziesięciolecia próbowano uczynić
komputer inteligentnym sposobiąc go tak, jak w szkole uczy się
duże dzieci języków obcych. Gramatyka, regułki, zeszycik, tabelki
z deklinacjami. Wychodziło jak wychodziło, w końcu metodę porzucono.
Teraz początki kontaktów są takie, jak z niemowlakiem. Skutki za
to wyglądają o wiele lepiej.
No cóz - AI kusiło ludzi od dawna, szczególnie, jak sobie nie mogli
poradzić z programem/algorytmem. To niemal tak stare, jak komputery.
Ale obecny wysyp ... hardware się rozwinął?
Za to ciekaw jestem, czy te obecne czaty uczyli jak małe dzieci, tzn
przechodziły przez etap gaworzenia, czy od razu na wyzszy level.
J.
Jarosław Sokołowski
Guest
Thu Apr 09, 2026 12:53 pm
Pan J.F napisa:
Quote:
Bardzo trafne porównanie. Przez dziesiciolecia próbowano uczyni
komputer inteligentnym sposobic go tak, jak w szkole uczy si
due dzieci jzyków obcych. Gramatyka, reguki, zeszycik, tabelki
z deklinacjami. Wychodzio jak wychodzio, w kocu metod porzucono.
Teraz pocztki kontaktów s takie, jak z niemowlakiem. Skutki za
to wygldaj o wiele lepiej.
No cóz - AI kusio ludzi od dawna, szczególnie, jak sobie nie mogli
poradzi z programem/algorytmem. To niemal tak stare, jak komputery.
Bardzo dugo liczyli na to, e poradz sobie wasnymi algorytmami.
Alan Turing w roku 1950 prognozowa, e AI pojawi si oko roku
1990, bo wtedy komputery bd miay kilkadziesit MB pamici. Tyle
jego zdaniem powinno wystarczy do osignicia celu. Przedstawi
nawet szacunki, ile czasu zajmie ludziom (konkretnym) wypenianie
tej pamici. Bazowa na tym, ile on sam potrafi dziennie napisa
kodu jako programista.
Quote:
Ale obecny wysyp ... hardware si rozwin?
Nie, nie hardware. Dzisiaj nawet z tym biurkowym sporo mona zrobi,
a podobny poziom dostpny by duo wczeniej.
Quote:
Za to ciekaw jestem, czy te obecne czaty uczyli jak mae dzieci, tzn
przechodziy przez etap gaworzenia, czy od razu na wyzszy level.
Gaworzenie jest wiczeniem aparatu mowy, z samymi funkcjami jzykowymi
zwizane jest w sposób luny. A "level" widoczny w kilku pierwszych
zdaniach wypowiadanych przez niejednego modego czowieka potrafi by
bardzo wysoki.
--
Jarek
J.F
Guest
Thu Apr 09, 2026 9:12 pm
On Thu, 9 Apr 2026 12:53:26 +0200, Jarosław Sokołowski wrote:
Quote:
Pan J.F napisał:
Bardzo trafne porównanie. Przez dziesięciolecia próbowano uczynić
komputer inteligentnym sposobiąc go tak, jak w szkole uczy się
duże dzieci języków obcych. Gramatyka, regułki, zeszycik, tabelki
z deklinacjami. Wychodziło jak wychodziło, w końcu metodę porzucono.
Teraz początki kontaktów są takie, jak z niemowlakiem. Skutki za
to wyglądają o wiele lepiej.
No cóz - AI kusiło ludzi od dawna, szczególnie, jak sobie nie mogli
poradzić z programem/algorytmem. To niemal tak stare, jak komputery.
Bardzo długo liczyli na to, że poradzą sobie własnymi algorytmami.
Podobno pierwszy teoretyczny uproszczony model neuronu pojawił sie w
1943 (McCulloch/Pitts).
Komputerów chyba jeszcze nie było ... no może na przekaźnikach.
Quote:
Alan Turing w roku 1950 prognozował, że AI pojawi się okoł roku
1990, bo wtedy komputery będą miały kilkadziesiąt MB pamięci. Tyle
Wow, a jak on obliczył, ile będzie pamięci?
Quote:
jego zdaniem powinno wystarczyć do osiągnięcia celu. Przedstawił
nawet szacunki, ile czasu zajmie ludziom (konkretnym) wypełnianie
tej pamięci. Bazował na tym, ile on sam potrafi dziennie napisać
kodu jako programista.
Ale obecny wysyp ... hardware się rozwinął?
Nie, nie hardware. Dzisiaj nawet z tym biurkowym sporo można zrobić,
a podobny poziom dostępny był dużo wcześniej.
No ale zasób wiedzy tych czatów jest zdecydowanie większy ...
Quote:
Za to ciekaw jestem, czy te obecne czaty uczyli jak małe dzieci, tzn
przechodziły przez etap gaworzenia, czy od razu na wyzszy level.
Gaworzenie jest ćwiczeniem aparatu mowy, z samymi funkcjami językowymi
związane jest w sposób luźny. A "level" widoczny w kilku pierwszych
zdaniach wypowiadanych przez niejednego młodego człowieka potrafi być
bardzo wysoki.
To fakt - parę miesięcy i z pojedynczych słów dziecko składa zdania ..
J.
Goto page Previous 1, 2, 3, 4 Next