me.dm is one of the many independent Mastodon servers you can use to participate in the fediverse.
Ideas and information to deepen your understanding of the world. Run by the folks at Medium.

Administered by:

Server stats:

1K
active users

#gpt

11 posts9 participants1 post today
Replied in thread

@SnowyCA I think @JosephMeyer talks about something different than #genAI or pure #GPT en.wikipedia.org/wiki/Generati

Scientists and researchers use #machineLearning (which is quite different) especially for large amounts of data, e.g. in climate science. en.wikipedia.org/wiki/Machine_
The theories must still be built by the researchers but they would need years for the data.

We should define more precisely what form we are talking about. #AI is only a popular marketing term for different techniques.

en.wikipedia.orgGenerative pre-trained transformer - Wikipedia
Continued thread
When we use generative AI, we consent to the appropriation of our intellectual property by data scrapers. We stuff the pockets of oligarchs with even more money. We abet the acceleration of a social media gyre that everyone admits is making life worse. We accept the further degradation of an already degraded educational system. We agree that we would rather deplete our natural resources than make our own art or think our own thoughts. We dig ourselves deeper into crises that have been made worse by technology, from the erosion of electoral democracy to the intensification of climate change. We condone platforms that not only urge children to commit suicide, they instruct them on how to tie the noose. We hand over our autonomy, at the very moment of emerging American fascism.
Yes +1.

#AI #GenAI #GenerativeAI #LLM #Claude #Copilot #Gemini #GPT #ChatGPT #tech #dev #science #research #writing

🌘 OpenAI 推出 GPT-5-Codex:為程式設計工具量身打造的最新模型
➤ 深入解析 OpenAI 的最新程式碼生成與審查利器
simonwillison.net/2025/Sep/15/
OpenAI 半開放了其最新的 AI 模型 GPT-5-Codex,這是一款專為程式設計輔助工具微調的 GPT-5 變體。雖然目前尚未透過 API 提供,但未來計劃推出。GPT-5-Codex 已整合至 VS Code 擴充功能、Codex CLI 及 Codex Cloud。新模型特別優化了程式碼審查功能,能根據任務複雜度動態調整思考時間,提升了程式碼重構和行動網站開發的表現,並減少了不必要或錯誤的程式碼註解。作者透過 Codex Cloud 的 SVG 圖片生成功能,驗證了其繪圖能力,儘管 API 尚未公開。整體而言,GPT-5-Codex 標誌著 OpenAI 在程式設計領域的 AI 模型發展邁出重要一步。
+ GPT-5-Codex 聽起來很令人興奮,尤其是在
#AI #OpenAI #GPT-5 #Codex #程式設計 #人工智慧

Simon Willison’s WeblogGPT‑5-Codex and upgrades to CodexOpenAI half-released a new model today: GPT‑5-Codex, a fine-tuned GPT-5 variant explicitly designed for their various AI-assisted programming tools. Update: OpenAI call it a "version of GPT-5", they don't explicitly …

Sztuczna inteligencja kłamie, bo tak ją nauczono. OpenAI przyznaje się do fundamentalnego błędu

„Halucynacje” sztucznej inteligencji, czyli jej skłonność do zmyślania faktów i podawania fałszywych informacji, to jeden z największych problemów hamujących rozwój tej technologii.

Teraz badacze z OpenAI, twórcy ChataGPT, ogłosili, że prawdopodobnie znaleźli źródło tego problemu. Wnioski są zaskakujące: to nie wina samej technologii, ale fundamentalny błąd w sposobie, w jaki jest ona trenowana.

Kluczowy menedżer od projektu Siri odchodzi z Apple. To on stał za opóźnioną sztuczną inteligencją

W najnowszej publikacji naukowcy z OpenAI wyjaśniają, że duże modele językowe (LLM) zachowują się jak dobrzy uczniowie na teście. Systemy oceniające, które stosuje się w procesie ich trenowania, nagradzają udzielenie jakiejkolwiek odpowiedzi. Zgadnięcie, nawet jeśli odpowiedź jest błędna, jest statystycznie bardziej opłacalne niż przyznanie się do niewiedzy. Model AI, który odpowie „nie wiem”, zawsze zostanie oceniony negatywnie, podczas gdy odpowiedź zmyślona ma przynajmniej szansę okazać się trafna.

W ten sposób, poprzez tę presję statystyczną, modele językowe są od samego początku zachęcane do zgadywania i konfabulowania, zamiast do sygnalizowania niepewności. Mamy tu do czynienia z poważnym błędem strukturalnym w metodologii treningu, który popełniła zarówno OpenAI, jak i cała branża podążająca jej śladem.

Na szczęście, wraz z diagnozą pojawia się propozycja rozwiązania. OpenAI sugeruje, że istnieje proste wyjście z tej sytuacji. Kluczem ma być zmiana systemu oceniania. Nowa metoda miałaby znacznie surowiej karać za podawanie błędnych odpowiedzi z dużą pewnością siebie, a jednocześnie nagradzać (np. częścią punktów) za uczciwe przyznanie się do braku wiedzy lub wyrażenie niepewności. Jeśli główne systemy rankingowe przestaną nagradzać szczęśliwe strzały, modele wreszcie nauczą się nie zgadywać.

Czy ta zmiana faktycznie powstrzyma falę dezinformacji generowanej przez AI? Czas pokaże. Firma przyznaje, że halucynacje pozostają fundamentalnym wyzwaniem dla wszystkich dużych modeli językowych, ale jednocześnie zapewnia, że ciężko pracuje, aby je dalej redukować. Dla użytkowników oznacza to nadzieję, że w przyszłości rozmowy z AI będą wreszcie oparte na faktach, a nie na kreatywnej fikcji.

Poufne wyznania pacjentów trafiają do ChatGPT. Niektórzy terapeuci używają AI w tajemnicy

Tvoříme #AI #ML #BI #LLM #GPT #DATA komunitu na Ostravsku.. Přidáš se?

Jsi #data #engineer nebo #analytik? Trénuješ vlastní model? Nevíš jaký zvolit dataset? Je #data #mining tvůj denní chleba? Řešíš optimalizace #DB jak na běžícím pásu? Nebo se to chceš naučit?

Jsme technická komunita - parta nadšenců i profesionálů - a sdílíme zkušenosti, radíme si s problémy, učíme se navzájem.

Příště můžeme probrat právě tvoje téma! 😉

👉 Přidej se k nám ➡️ discord.gg/BWMkCEWa

🩵 TechMeetup #community