Goto page Previous 1, 2, 3, 4
Adam
Guest
Wed Apr 05, 2023 2:53 pm
Dnia Wed, 5 Apr 2023 10:43:10 +0200, Mateusz Bogusz napisał(a):
Quote:
On 05.04.2023 09:26, RoMan Mandziejewicz wrote:
Myślę, że informacje pozyskane z poszczególnych sesji wchodzą do bazy
wiedzy tylko tej sesji. A ogólna baza wiedzy jest uzupełniana przez
operatorów, czasem z błędami... GIGO.
Kiedy zaprezentowali ChatGPT, tak właśnie odpowiedzieli na to pytanie.
Przypuszczam że z czasem może zacząć się to zmieniać, np. wersja która
udostępnia Bing Chat ma dostęp do Internetu.
A ja bym sobie chciał pogadać z ChatGPT w samochodzie.
Na chwilę obecną nie widzę takiej możliwości.
Androidowa gadaczka (Android Auto + Android 10 lub 11) umie tylko zmienić
muzykę lub stację radiową oraz odpowiada na kilka prostych poleceń typu
"opowiedz dowcip".
--
Pozdrawiam.
Adam
Mateusz Bogusz
Guest
Wed Apr 05, 2023 3:01 pm
On 05.04.2023 14:53, Adam wrote:
Quote:
A ja bym sobie chciał pogadać z ChatGPT w samochodzie.
Na chwilę obecną nie widzę takiej możliwości.
GitHub Pilot korzystający z GPT ma już taką możliwość. Możesz więc
programować jadąc samochodem

Ale kwestia czasu na bardziej
generycznego asystenta.
--
Pozdrawiam,
Mateusz Bogusz
Piotrek
Guest
Wed Apr 05, 2023 8:50 pm
On 05.04.2023 08:08, Mateusz Bogusz wrote:
Quote:
On 04.04.2023 19:16, Piotrek wrote:
Nie wiem czy są jakieś oficjalne informacje na ten temat, ale w
branżowych ploteczkach sugerowano, że GPT-4 ma o dwa rzędy wielkości
więcej parametrów niż GPT-3
Stan wiedzy obu modeli jest bardzo zbliżony, wersja GPT-4 po prostu
lepiej (w naszym rozumieniu) radzi sobie z odczytaniem intencji które
kryją się za zadanym pytaniem. GPT-3 też udzieli odpowiedzi na pytanie,
ale czasami wymaga to lawirowania pomiędzy użytymi w tym pytaniu
słowami. GPT-4 potrafi też rozumieć obrazy - w sensie np. opisać co na
nich się znajduje.
Stan wiedzy tak, ponieważ oba modele były uczone na mniej więcej
podobnym zbiorze danych.
Mnie chodziło o to, że współczynników (wagi i progi aktywacji) jest w
GPT-4 o 2 rzędy wielkości więcej, co zapewne ma wpływ również na
wielkość kontekstu, o czym piszesz niżej. Ale mogę się nie znać, bo to
nie moja bajka.
Quote:
[...]
I największą różnicę robi pewnie kontekst - GPT3 (3000 słów) vs GPT4
(25000 słów) - ale wydaje się że nie jest to ograniczenie modelu, co
narzucony limit przez twórców, bo wraz z nim wzrasta zapotrzebowanie
obliczeniowe.
https://www.trustedreviews.com/versus/chat-gpt-4-vs-chat-gpt-3-4309130
Tak więc IMHO nie ma się co ekscytować darmową wersją tylko może warto
wysupłać te dwadzieścia dolców i wyrobić sobie opinię bazującą na ciut
bardziej aktualnej wersji modelu.
Myślę że opinii co do konkretnej wersji to nie ma co wyrabiać, a ogólnie
do rozwiązania jakim będą "ludzko gadające bazy wiedzy".
Zależy czego się oczekuje. Ja już dość dawno przestałem zawodowo
programować. Tak więc jak potrzebuję sobie odświeżyć wiedzę albo napisać
na szybko kawałek kodu to oba narządka są dla mnie idealne.
Natomiast jak ktoś oczekuje, że mu GPT zaprojektuje i zaimplementuje
coś, co ma - powiedzmy - 3 miliony linii kodu, to pewnie musi jeszcze
chwilę poczekać ...
Quote:
Na grudzień OpenAI zapowiedział GPT-5 który ma pokazać kolejny przeskok
jak między 3 a 4. Microsoft po podkupieniu praw do prac OpenAI, podłącza
je pod swoje usługi Azure, Office 365, Copilot...
Zacznie się robić ciekawie w kontekście praw autorskich.
Chyba już pora zaopatrzyć się w chipsy i orzeszki ;-)
Piotrek
a a
Guest
Wed Apr 05, 2023 9:16 pm
ChatGPT-100 to spamowa reklama badziewia, aby się gadało,
a badziewie pozostanie badziewiem.
Bill NiebieskiEkran liczy na kasę podobnie
jak Melon co zniszczył Tłitera
i przerobił ćwierkającego ptaszka w szczekającego psa.
Sztuczna Inteligencja to my i albo jesteśmy inteligentni, albo jestesmy plaskoziemcami.
Za oceanem królują płaskoziemcy, zatem nie istnieje ryzyko, że
powstanie jakaś Sztuczna Inteligencja,
bo dotychczas nigdy nie powstała.
I nawet jak to badziewie nazwą GPT-1000000000
to nadal to będzie badziewie opracowane przez płaskoziemców, czyli nieinteligentne.
Jarosław Sokołowski
Guest
Wed Apr 05, 2023 10:38 pm
Pan Piotrek napisał:
Quote:
Zależy czego się oczekuje. Ja już dość dawno przestałem zawodowo
programować. Tak więc jak potrzebuję sobie odświeżyć wiedzę albo
napisać na szybko kawałek kodu to oba narządka są dla mnie idealne.
Zależy czego się oczekuje. To co dzisiaj się pisze, szybciej się pisze,
niż się tłumaczy, co to ma robić. Jakieś takie skondensowane to pisanie
się zrobiło. Przynajmniej w moich okolicach. Nie oczekuję więc, że coś
oszczędzę w ten sposób.
Quote:
Natomiast jak ktoś oczekuje, że mu GPT zaprojektuje i zaimplementuje
coś, co ma - powiedzmy - 3 miliony linii kodu, to pewnie musi jeszcze
chwilę poczekać ...
Chyba akurat to teraz wychodzi najlepiej. Te wszystkie wynalazki, co to
po krótkim opisie słownym robią wielką kompozycję graficzną, jakoś tak
mają. Metaforyczne "trzy miliony linii kodu", ale żadna z nich nie ma
krytycznego znaczenia.
Quote:
Na grudzień OpenAI zapowiedział GPT-5 który ma pokazać kolejny przeskok
jak między 3 a 4. Microsoft po podkupieniu praw do prac OpenAI, podłącza
je pod swoje usługi Azure, Office 365, Copilot...
Zacznie się robić ciekawie w kontekście praw autorskich.
Kilka dni temu słyszałem w radiu o gościu, co w zgłoszeniu patentowym
jako autora wynalazku podał AI. I kłóci się teraz z urzędnikami, że to
nie on jest wynalacą, jest za to uczciwy i nie chce kłamać ani kraść.
A urzędnicy są w kropce, bo procedury czegoś takiego nie przewidują.
--
Jarek
a a
Guest
Thu Apr 06, 2023 12:45 am
On Wednesday, 5 April 2023 at 22:38:27 UTC+2, Jarosław Sokołowski wrote:
Quote:
Pan Piotrek napisał:
Zależy czego się oczekuje. Ja już dość dawno przestałem zawodowo
programować. Tak więc jak potrzebuję sobie odświeżyć wiedzę albo
napisać na szybko kawałek kodu to oba narządka są dla mnie idealne.
Zależy czego się oczekuje. To co dzisiaj się pisze, szybciej się pisze,
niż się tłumaczy, co to ma robić. Jakieś takie skondensowane to pisanie
się zrobiło. Przynajmniej w moich okolicach. Nie oczekuję więc, że coś
oszczędzę w ten sposób.
Natomiast jak ktoś oczekuje, że mu GPT zaprojektuje i zaimplementuje
coś, co ma - powiedzmy - 3 miliony linii kodu, to pewnie musi jeszcze
chwilę poczekać ...
Chyba akurat to teraz wychodzi najlepiej. Te wszystkie wynalazki, co to
po krótkim opisie słownym robią wielką kompozycję graficzną, jakoś tak
mają. Metaforyczne "trzy miliony linii kodu", ale żadna z nich nie ma
krytycznego znaczenia.
Na grudzień OpenAI zapowiedział GPT-5 który ma pokazać kolejny przeskok
jak między 3 a 4. Microsoft po podkupieniu praw do prac OpenAI, podłącza
je pod swoje usługi Azure, Office 365, Copilot...
Zacznie się robić ciekawie w kontekście praw autorskich.
Kilka dni temu słyszałem w radiu o gościu, co w zgłoszeniu patentowym
jako autora wynalazku podał AI. I kłóci się teraz z urzędnikami, że to
nie on jest wynalacą, jest za to uczciwy i nie chce kłamać ani kraść.
A urzędnicy są w kropce, bo procedury czegoś takiego nie przewidują.
--
Jarek
Promowana jest moda na AI
to znaczy, że nadchodzi wielki kryzys gospodarczy i 3WS
i biznesy planuja szybko wyrwac kasę, zanim zbankrutują
Był ćwierkający Tłiter a teraz mamy szczekającego psa, a wszystko przez Melona,
któremu samochody nie idą
i szuka autopromocji w lotach na Marsa.
To co jest reklamowane jako AI to są wynalazki dla płaskoziemców, oparte na prostych algorytmach
i ani to inteligentne , ani sztuczne.
To jest ostatnie tchnienie Doliny Krzemowej przed wielkim krachem.
ChatGPT to głównie chat, czyli interakcja i ludzie tego potrzebują bo aktywnośc internetowa wymarla w 99%
Kto ma psa, kota, chomika, rodzinę, dzieci, temu wynalazki typu GPT nie są potrzebne.
Goto page Previous 1, 2, 3, 4