Benvenuto/a su DAIDEGAS FORUM, il primo forum di Moto del Mondo, creato da Davide Polo nel 2001. Se questa è la tua prima visita consulta le Domande frequenti e termini del sito b> facendo clic sul link sopra. E' necessario registrarsi b>
prima di poter postare: clicca sul link 'REGISTRARSI' qui sopra per procedere. Per iniziare a leggere i messaggi,
seleziona il forum che vuoi visitare dalla selezione qui sotto, la lettura è aperta al 100%.
Ma è sempre meglio partecipare no?
Larsen, una volta ho sentito pronunciare una frase da uno studioso del cervello che definiva l'intelligenza proprio come il riuscire a trovare soluzioni vincenti a problemi che non sono basati sulle conoscenze acquisite.
Nel senso che.....io nella vita apprendo....? come se mi programmassero..ok?
arrivo ad un certo punto quando mi si presenta un problema che esula dalle mie conoscenze....e dalle mie esperienze dirette....e allora che faccio?
il computer stupido andrebbe in blocco..non avendo dati sufficienti per elaborare una strategia....
l'intelligenza umana invece riesce a trovare correlazioni o "colpi di genio" che si rivelano poi vincenti.....tralasciando la fortuna per le scelte obbligate..ok?
intendo proprio arrivare ad una soluzione adeguata con il ragionamento....
questo ? quello che ancora ci differenza dalla macchina...che come dici tu ? pi? veloce....su questo non ci sono dubbi...ma ha ancora grossi limiti nell'auto-apprendimento e nella scintilla che porta alle soluzioni geniali.
non credo che sia impossibile, ma per un p? rimarremo ancora qua...eh gi?......eh gi?....
bhe', noi procediamo per tentativi ed errori quando siamo di fronte ad un problema nuovo, idem puo' fare la macchina.
ripeto, tu pensa alle auto a guida autonoma, non quelle che girano su "binari" o percorsi preimpostati, ma quelle realmente autonome.
l'esercito usa ha gia' preparato veicoli logistici in grado di portare rifornimenti dalla base al fronte, senza pilota, totalmente autonomi, in grado di decidere che strada prendere in base alle proprie caratteristiche.
questa e' gia' una sorta di autocoscienza: io posso superare ostacoli di tot cm, devo pianificare autonomamente un percorso che mi permetta di evitarli.
se si trova di fronte ad un vicolo cieco, torna indietro, come faremmo noi, non resta li in blocco in attesa.
la differenza con l'autista umano e' semplice: non commette errori di valutazione (il classico "massi', ci passo lo stesso...") e non teme nulla... non gli frega nulla se intorno piovono proiettili, lui deve arrivare al punto stabilito.
il problema sorgera' quando la macchina rifiutera' di andare avanti per paura di essere "uccisa"... quanto ci vorra'?
Larseen, io continuo a non concordare con te. La macchina lavorer? sempre in base a quanto programmato e conosciuto, gli si pu? dare la possibilit? di avere un data base immenso e quindi una gamma di scelta elevatissima, ma non potr? mai creare un'opera d'arte ad esempio. Altre cose di cui non tieni conto ? una sorta di "trascendenza" presente solo negli esseri viventi, ad esempio mia figlia si stropiccia l'orecchio come faceva alla sua et? suo zio, nessuno glielo ha insegnato, non lo ha visto fare per? si comporta esattamente come lo zio (niente battute, ? la mia fotocopia ), voglio dire, certe cose noi non le sappiamo ma, davanti all'ostacolo sconosciuto, viene fuori la soluzione anche se nessuno ce la ha mai insegnata. Inoltre la macchina non ha l'istinto, cio? quella cosa che ci porta a compiere azioni senza saperne la ragione. A noi per respirare non serve conoscienza, come nasciamo lo facciamo e basta, una macchina invece fa solo quello che deve fare.
alem, quando si videro in giro le prime automobili (erano elettriche...), si pensava che non avrebbero mai soppiantato i cavalli (andavano a 3/4 km/h, il cavallo era piu' veloce).
si pensava che nulla di ferro avrebbe potuto galleggiare... che l'uomo non avrebbe mai potuto volare
e queste sono solo cose successe negli ultimi 2 secoli...
la prima radio trasmette' dall'inghilterra a newyork e pareva un risultato incredibile, oggi puoi videochiamare dall'altra parte del mondo.
30 anni fa sbavavamo su kitt di supercar, oggi e' (quasi) realta'.
pensare che la tecnologia non possa superare l'uomo, e' pensare che le auto non sostituiranno mai i cavalli
alem, quando si videro in giro le prime automobili (erano elettriche...), si pensava che non avrebbero mai soppiantato i cavalli (andavano a 3/4 km/h, il cavallo era piu' veloce).
si pensava che nulla di ferro avrebbe potuto galleggiare... che l'uomo non avrebbe mai potuto volare
e queste sono solo cose successe negli ultimi 2 secoli...
la prima radio trasmette' dall'inghilterra a newyork e pareva un risultato incredibile, oggi puoi videochiamare dall'altra parte del mondo.
30 anni fa sbavavamo su kitt di supercar, oggi e' (quasi) realta'.
pensare che la tecnologia non possa superare l'uomo, e' pensare che le auto non sostituiranno mai i cavalli
e' solo questione di tempo.
si pensava perch? era ingegneristicamente improbabile se non impossibile o comunque antieconomico.
qui parliamo di creare qualcosa che ancora non sappiamo cosa sia, non basta aspettare il progresso delle prestazioni.
del saggio che hai postato rimango scettico su uno dei quattro postulati
La funzionalit? del cervello umano ? quantificabile in termini di tecnologia che possiamo costruire nel prossimo futuro.
Una misura oggettiva della potenza computazionale cerebrale
Kurzweil sostiene che la funzionalit? del cervello sia quantificabile in numero di calcoli per pollice quadrato, moltiplicato per l'area del cervello. In questo aggiornamento, tuttavia, egli riconosce le possibilit? della computazione quantistica del Microtubulo di Penrose-Hameroff (teoria Orch-Or, postulata da Roger Penrose e Stuart Hameroff) e sostiene che, anche se i suoi calcoli della capacit? computazionale del cervello fossero errati di un fattore 1 miliardo, la crescita bi-esponenziale della tecnologia vi si ricollegherebbe ventiquattro anni dopo le sue proiezioni originali. La teoria Orch-Or ? comunque generalmente destituita di credibilit? tra i neuroscienziati.
In un articolo a confutazione[1], Stuart Hameroff asserisce che la potenza di calcolo quantico richiesta per l'autocoscienza di una macchina ? di un ordine di magnitudo pi? grande, che pu? essere espresso attraverso sistemi convenzionali di misurazione computazionale. Questo argomento sembra ignorare la premessa di Kurzweil, secondo cui i ritorni acceleranti nello sviluppo delle tecnologie attuali potrebbero, in un certo lasso di tempo, superare tale barriera. Inoltre, potrebbero emergere altre tecnologie che abbassino notevolmente il tempo richiesto per raggiungere la Singolarit?. In tal senso, un esempio degno di nota sarebbero forme pi? avanzate di calcolo quantico capaci di raggiungere una piena emulazione neurale, che su una scala abbastanza grande, potrebbero funzionare in modo equivalente a quello del cervello umano.
bhe', nel caso di quell'automa, come in quello famoso che sembra un mulo che gira da tempo, loro danno alla macchina sensori e strumenti per muoversi, poi pero' e' la macchina che deve "apprendere" come restare in equilibrio, quali passi fare per non cadere...
il mulo mecccanico era mostruoso, lo vedevi arrivare sparato, uno gli da una botta, un calcio, barcolla ma non cade.
e sono eventi non programmati...
tu alla macchina dai gli strumenti, di calcolo e sensori, la struttura e la capacita' motoria, ma poi e' la macchina ad apprendere il metodo migliore per muoversi, per evitare ostacoli, per mantenere l'equilibrio.
praticamente quello che un neonato ci mette mesi a fare prima di riuscire a camminare decentemente, qui bastano pochi "giri" sul tracciato, e piu' si "esercita" piu' migliora.
il problema non e' apprendere, il problema e': quanto ci metteranno a decidere di non eseguire un ordine?
"drone: vai da A a B" "stocazzo sig.tenente, non c'ho voglia"...
Comment