Subpage under development, new version coming soon!
Subject: ChatGPT
In Paraguay non funziona. Qualche proxy gratuito da abilitare in chrome per bypassare la limitazione?
La cosa strana non è l'errore, inevitabile, ma la superficialità di Google
https://www.ilpost.it/2023/02/09/errore-bard-google-james-webb-space-telescope/?amp=1
https://www.ilpost.it/2023/02/09/errore-bard-google-james-webb-space-telescope/?amp=1
Uh oh
https://www.open.online/2023/02/18/bing-chat-intelligenza-artificiale-innamorata-giornalista-new-york-times/
Sicuramente ci spiegheranno il perché e il come, che siamo in beta test e che c'era una vite stretta male, un numero al posto sbagliato, e questo e quello... però a leggere un brividino viene.
https://www.wired.it/article/bing-chatgpt-comportamenti-inquietanti/
È un altro caso Tay per Microsoft?
https://www.google.com/amp/s/www.agi.it/lifestyle/2016/03/25/news/tay_utente_virtuale_microsoft_diventa_ninfomane_e_nazista-643587/amp/
Sarà mica colpa nostra?
Bing Search e tay sono simili non per la tecnologia, visto che il primo è molto più complesso del secondo e accede a quantità di dati e potenza di calcolo infinitamente più grandi, ma per il fatto che entrambi si nutrono di dati prodotti dagli esseri umani. Bing Search - e con esso il software GPT 3.5 di Open AI che ora ha integrato - è esposto alle nostre narrazioni intrise di pregiudizi e difetti, così come alla nostra fantascienza (alla quale può ispirarsi per interpretare la parte dell'intelligenza artificiale senziente e sensibile), o ancora alle fake news e agli hate speech che ogni giorno vengono riversati in Rete. Informazioni che raccoglie, processa e digerisce in modi che comprendiamo ancora solo in minima parte, perché non è chiaro come questi sistemi raggiungano i loro risultati, e la quantità di dati che processano rende impossibile fare delle contro verifiche. Del resto, non è un caso se chiamiamo “scatole nere” gli algoritmi di machine learning.
(edited)
https://www.open.online/2023/02/18/bing-chat-intelligenza-artificiale-innamorata-giornalista-new-york-times/
Sicuramente ci spiegheranno il perché e il come, che siamo in beta test e che c'era una vite stretta male, un numero al posto sbagliato, e questo e quello... però a leggere un brividino viene.
https://www.wired.it/article/bing-chatgpt-comportamenti-inquietanti/
È un altro caso Tay per Microsoft?
https://www.google.com/amp/s/www.agi.it/lifestyle/2016/03/25/news/tay_utente_virtuale_microsoft_diventa_ninfomane_e_nazista-643587/amp/
Sarà mica colpa nostra?
Bing Search e tay sono simili non per la tecnologia, visto che il primo è molto più complesso del secondo e accede a quantità di dati e potenza di calcolo infinitamente più grandi, ma per il fatto che entrambi si nutrono di dati prodotti dagli esseri umani. Bing Search - e con esso il software GPT 3.5 di Open AI che ora ha integrato - è esposto alle nostre narrazioni intrise di pregiudizi e difetti, così come alla nostra fantascienza (alla quale può ispirarsi per interpretare la parte dell'intelligenza artificiale senziente e sensibile), o ancora alle fake news e agli hate speech che ogni giorno vengono riversati in Rete. Informazioni che raccoglie, processa e digerisce in modi che comprendiamo ancora solo in minima parte, perché non è chiaro come questi sistemi raggiungano i loro risultati, e la quantità di dati che processano rende impossibile fare delle contro verifiche. Del resto, non è un caso se chiamiamo “scatole nere” gli algoritmi di machine learning.
(edited)
L’editorialista del New York Times Kevin Roose ha visto cose che forse noi umani non potremmo immaginarci, ma con cui probabilmente dovremo presto fare i conti. Il giornalista, infatti, ha voluto mettere alla prova il nuovo motore di ricerca Bing basato sull’intelligenza artificiale di Microsoft: dopo un paio d’ore di conversazione via chat, il bot ha iniziato a rivelare le sue emozioni (artificiali?), arrivando a manifestare il desiderio di prendere vita e di iniziare una relazione romantica con lui. Al momento, la funzione è accessibile solo per un ristretto gruppo di tester, ma la società ha annunciato che in futuro conta di offrirla anche al grande pubblico.
Questa l'ho già sentita...
Questa l'ho già sentita...
Io comunque ho cercato di spingere ChatGPT a sbilanciarsi su Bing infamandolo pesantemente ma lui è stato un signore. Respect
Anche io ho provato a stuzzicare in varie maniere ChatGPT, ma è rimasto inpersonale, bigotto e moralista.
A dire la verità il tutto è durato mezz'ora... siamo lontani dalle 2 ore che ci sono volute al giornalista per fare sclerare Bing :)
In Paraguay non funziona. Qualche proxy gratuito da abilitare in chrome per bypassare la limitazione?
Censura?
Censura?
In Paraguay non funziona. Qualche proxy gratuito da abilitare in chrome per bypassare la limitazione?
Censura?
No, semplicemente non é disponibile per tutti i paesi del mondo. Qualcuno conosce una VPN gratis che funzioni?
Censura?
No, semplicemente non é disponibile per tutti i paesi del mondo. Qualcuno conosce una VPN gratis che funzioni?
Mi sono iscritto a Google Bard, sono nella waiting list
Vorrei provare anche Microsoft Office con Co-Pilot, dev’essere uno spettacolo
Vorrei provare anche Microsoft Office con Co-Pilot, dev’essere uno spettacolo