Re: Kurzweil esagera?

From: Giulio Severini <fenice1976_at_hotmail.com>
Date: 6 Jan 2006 15:47:31 -0800

Ciao mi permetto di intervenire pur non avendo competenze scientifiche
di alcun tipo; intervengo solo dal punto di vista dell'uomo da strada,
quello che *usa* le tecnologie senza sapere come sono rese possibili.

Credo che non vi sia alcuna possibilit� perch� il progresso
scientifico-tecnologico acceleri, un giorno, a tal punto da divenire
completamente non intellegibile all'essere umano a meno che, da un
certo punto in poi, questo progresso non venga pi� portato avanti
dall'essere umano ma da intelligenze superiori, artificiali o meno.

Dal mio punto di vista: un'intelligenza artificiale che possa competere
con la mente umana saremo in grado di *crearla* solo quando avremo
compreso appieno non tanto i meccanismi fisici-chimici-biologici del
cervello umano, quanto i *principi* di progettazione che hanno fatto
risolvere alla Natura il problema di rendere *viva* la materia, ed
intelligente una parte di essa. Fino a quando non avremo compreso
cos'� la Vita e come possa dalla Vita nascere l'Autocoscienza e l'
Intelligenza non avremo alcuna possibilit� di creare alcunch�. Non
solo.

Sono assolutamente convinto che quando arriver� il giorno in cui
saremo in grado di creare la prima vera IA non proseguiremo pi� nella
direzione di creare IA a s� stanti, quanto nella direzione di
aumentare il potenziale del cervello umano, che � ENORME, grazie ai
principi con cui saremmo in grado di creare le IA stesse.

La nostra meta non � quella di creare repliche di noi stessi, quanto
quella di raggiungere l' Infinito. L'Infinito inteso sia come
Immortalit�, sia come Intelligenza.

Quindi non accadr� mai che qualche macchina ci stermini. Semplicemente
perch� saremo noi macchine.
Received on Sat Jan 07 2006 - 00:47:31 CET

This archive was generated by hypermail 2.3.0 : Mon Feb 10 2025 - 04:23:38 CET