Jump to content

Animo Juanca!!!!!!!!


Miguel L

Publicaciones recomendadas

Nuu no la vi, es una peli imagino ¿de que año/pais es? así la busco bien.

Lo de la conciencia: Bueno seria que sea capaz de reconocerse a si misma, que maneje el concepto de yo y que a partir de ahí pueda entender el entorno como "la realidad" y ser capaz de imaginar otros yo y otras realidades inexistentes, que pueda ser verdaderamente creativa. Porque por ejemplo que una maquina "cree" distintos movimientos posibles de un juego de ajedrez se puede lograr de manera digamos mecánica (la cantidad de movimientos son finitos y puede evaluar el mas ventajoso hasta cierto punto, tantos movs en el futuro), pero que lo haga intencionadamente porque evalúa que cierto movimiento en una futura realidad aun inexistente puede llegar a buen puerto basado en algún prejuicio sobre la forma de jugar del rival es otra cosa.

Probablemente pierda!! jajajaa :lol: Pero la formación de ese juicio sobre el entorno inmediato y sobre un posible futuro no creo que lo pueda desarrollar si tener conciencia de su propia existencia.

va por ahi... tal vez no se entienda mucho, cuando pienso en estas cosas siento que me meto en un pantano que ni yo me entiendo despues de un rato :mrgreen:

PD: eso de suponer que ex-machina es una película, que se de cuenta que tiene nombre de película a pesar de que jamas la haya escuchado y que de repente se transforme en un elemento mas de la realidad... bueno ese tipo de inteligencia y de conciencia del si misma y del entorno es lo que me intriga de una posible IA

Enlace al comentario

Si, es una peli qué salio hace poco. Bastante buena.

Yo creo que muy poca gente puede hablar de esto sin estar metiéndose en una especie de pantano :P

Lo de reconocerse a si mismo es una prueba que muchas veces hacen con animales, para tener una idea del nivel de inteligencia. Recuerdo que los elefantes pueden reconocerse a si mismos en un espejo, e incluso reconocen esqueletos de elefantes, cosa que les genera mucha curiosidad.

Fernando

Enlace al comentario

Ahora si se puso interesante el tema... pero para traerlos de vuelta al hilo de lo que a mi me interesa, les parece que se pueda programar que un programa se reconozca a si mismo? o está en el terreno de lo no computable?

Además de Ex-Machina (http://www.imdb.com/title/tt0470752/), hace poco vi Uncany (http://www.imdb.com/title/tt2321502/?ref_=fn_al_tt_1) que sigue más el menos el hilo de Bladerunner, es decir, robots que además de tener conciencia de sí mismos, no saben que son robots.

Todos los argumentos de la máquina biológica puede que estén acertados, pero para mi, una máquina biológica o una máquina artificial capas de reproducir el comportamiento humano en detalles tan exquisitamente finos como jugar al ajedrez mientras se preocupa por el trabajo que tiene que hacer mañana, no es una computadora. De la misma manera que el verbo "volar" solo aplicaba a insectos y aves antes de la invención del avión, el verbo "pensar" probablemente comience a aplicarse a estas máquinas capases de reproducir este comportamiento. Sin embargo, estas no serán computadoras, ni programas de computadora, serán algo mucho pero mucho más avanzado.

El último teorema de Fermat (https://es.wikipedia.org/wiki/%C3%9Alti ... _de_Fermat) fue resuelto recientemente por personas, por que el problema de probar si un teorema es verdadero es incomputable. Aún así, hay pocas personas con vida capases de entender la demostración. El que la demostración haya salido de un cerebro (normal, digamos) y no de una computadora, para mi es un clavo más en el ataúd de la idea de que las computadoras alguna vez van a poder pensar.

Enlace al comentario
les parece que se pueda programar que un programa se reconozca a si mismo? o está en el terreno de lo no computable?

mmm... programar que se reconozca a sí mismo me parece que no podría ser, porque sería programar una decisión que ya está incorporada. Para reconocerse a sí mismo tiene que poder aprender, decidir y descubrir cosas por sí mismo. Pero tal vez podrías llegar a programar algo que aprenda. Sé que las redes neuronales es algo que se estudia hace tiempo, aunque nunca me metí en eso. Igual aunque pudieras hacer un software que llegue a tener conciencia de si mismo por medio del aprendizaje, no sería directamente por que vos lo programaste, sino por el aprendizaje en sí. A ese nivel, ya mas que un software habría que llamarlo una mente, y las repercusiones serían enormes. Creo que como mínimo daría lugar a debates y cuestionamientos filosóficos, morales e incluso teológicos gigantezcos.

Ahora, podríamos decir que lo que determina cómo es una persona, son las experiencias vividas y su aprendizaje, además de otras cuestiones básicas que ya vienen "de fábrica" :)

Todo eso es información, ni siquiera es algo físico. No es el cerebro, sino las conexiones que ese cerebro hizo, y la información que guardó. Entonces yo creo que en definitiva lo que te hace ser una persona única, además de las diferencias genéticas, es mas bien una especie de software :)

Le voy a echar un vistazo a Uncanny, gracias por el dato!!

Fernando

Enlace al comentario

¿Por que seria mala idea? Fabricamos seres conscientes todos los días y así nos va... (bue, tal vez por eso :mrgreen: )

imaginemos un rato...

No seria inmortal, a fin de cuentas tendría un soporte material con una vida util limitada, seria consciente del fin de su existencia al igual que nosotros, su psicología no seria muy distinta ala nuestra al menos en ese aspecto.

Podría replicarse a si mismo, pero su conocimiento y personalidad estaría determinada por su experiencia, todas las replicas tendrían una misma historia común hasta la/s primera/s copia/s y así se iría ramificando sucesivamente al cabo de varias generaciones/replicas cada copia seria distinta a las demás pero comparitiria recuerdos con todas, otros con muchas, otros con varias y otros con algunas... eso es interesante.

Y compartiría/mos el entorno con otra especie inteligente... mmm... :roll:

Enlace al comentario
por jwackito » Jue Abr 14, 2016 8:15 pm

Yo creo que diste en el clavo con la pregunta Fernando. Suponete que pondamos, Será una buena idea fabricar algo como eso?

"Creo", que no importa si será una buena idea, pero que lo intentaremos SI !!!, de eso estoy seguro porque ya sucedió, ¿o a caso no recuerdan que fabricamos armas nucleares para destruir mas de 10 veces la humanidad?, que todavía estemos "charlando", no nos garantiza que no pueda suceder...

De cualquier manera, la humanidad no es eterna, desaparecerá, (en la evolución del Universo), la incertidumbre es ¿cuando?

Este concepto, también podría ser tratado por IA, ¿como lo procesara?, una posibilidad es “como Humano”, pero no es la única.

Cordiales saludos.

Enlace al comentario

Si es posible, alguien lo va a terminar haciendo, eso seguro, porque cómo lo evitás?

Ahora, vos ponele que creás una conciencia que está encerrada en una computadora. Si la inteligencia es la habilidad para resolver problemas, que hay con los sentimientos? Serán mas bien como "funciones preexistentes" para funcionar como especie? Que hay de la ética? Podría desarrollar ética esta conciencia? Empatía?

Todo esto apunta a qué tipo de decisiones podría tomar esta conciencia. Se podría lograr que sea "una buena persona"? O sería algo que toma decisiones racionalmente correctas, pero carentes de todo sentido de la ética? Que tipo de deseos tendría esta conciencia, si es que alguno? Buscaría liberarse del espacio en el que está confinada? (viste como somos los seres inteligentes, si los encerrás y le das suficiente tiempo, mientras exista alguna manera de liberarse la van a encontrar :D)

Si la conciencia quiere liberarse y "parece buena gente", se lo permitiríamos? Sería eticamente correcto impedirlo? Sería seguro liberarla?

Da para mucho el tema de las IAs, por algo es uno de los temas favoritos de la ciencia ficción.

Fernando

Enlace al comentario

La "inteligencia biológica", resolvió el problema transportando el "cuerpo", (cerebro incluido), pero también existe la posibilidad de informarse y obrar a distancia, manteniendo “el cuerpo” en lugar seguro, esto, coincide con el concepto de “libertad”. ¿Qué mayor “seguridad” que controlar el “resto” a distancia?

Si la conciencia quiere liberarse y "parece buena gente", se lo permitiríamos? Sería eticamente correcto impedirlo? Sería seguro liberarla?

El problema se transforma en si nos permitirian "permitirles"...

Cordiales saludos.

Enlace al comentario
Todos los argumentos de la máquina biológica puede que estén acertados, pero para mi, una máquina biológica o una máquina artificial capas de reproducir el comportamiento humano en detalles tan exquisitamente finos como jugar al ajedrez mientras se preocupa por el trabajo que tiene que hacer mañana, no es una computadora. De la misma manera que el verbo "volar" solo aplicaba a insectos y aves antes de la invención del avión, el verbo "pensar" probablemente comience a aplicarse a estas máquinas capases de reproducir este comportamiento. Sin embargo, estas no serán computadoras, ni programas de computadora, serán algo mucho pero mucho más avanzado.

Y qué denominación sugerís? No son las computadoras o programas convencionales, son mucho más complejas, por supuesto. Pero en el extremo son lo mismo, con niveles de complejidad exponencialmente distintos. De una simple navaja a una FAL hay un abismo de distancia, pero la nomenclatura es la misma: arma. De ahí que lo quieras poner en categorías es otra cosa; lo mismo acá, ambas cosas son máquinas, una es biológica y la otra artificial. De que las artificiales tengan sus niveles de complejidad (lo mismo corre para las biológicas) eso ya habrá que formular nuevas definiciones. Por aportar alguna idea... "programa no consciente" y "programa consciente" como gran separador de categorías, cuando lleguemos a inventar una que cuadre en el segundo grupo...

El último teorema de Fermat (https://es.wikipedia.org/wiki/%C3%9Alti ... _de_Fermat) fue resuelto recientemente por personas, por que el problema de probar si un teorema es verdadero es incomputable. Aún así, hay pocas personas con vida capases de entender la demostración. El que la demostración haya salido de un cerebro (normal, digamos) y no de una computadora, para mi es un clavo más en el ataúd de la idea de que las computadoras alguna vez van a poder pensar.

Devuelta, no le veo la relación explícita entre una cosa y otra. Hay teoremas complicados y teoremas sencillos. Un teorema que puedo demostrar yo como también puede demostrar un programa sencillo -imagino, porque devuelta, cero de informática- , es el siguiente:

p(x):"x+2=4" , luego p(x) es verdadera si y solo si x=2, cualquier otro caso resulta falso. Y convencido estoy de que un programa sencillo puede demostrar algo así...

Aparte, más contundente aún: ¡Ataúd, las bolas! El Teorema de los Cuatro Colores fue demostrado casi totalmente vía computadora: https://es.wikipedia.org/wiki/Teorema_de_los_cuatro_colores ; lo mismo para el problema de las pistas del Sudoku, resuelto en grandísima parte por computadora; y hay un par mas que no recuerdo ahora mismo...

programar que se reconozca a sí mismo me parece que no podría ser, porque sería programar una decisión que ya está incorporada.

Eh... ¿por qué? Digo, no me resulta del todo claro jajaj. Igual si tomamos a la persona como algo que en primera instancia no se reconoce a si misma, luego sí, tiene todo sentido lo que comentás a continuación. Quiero decir.... un bebé no se reconoce a sí mismo al momento de nacer, la diferencia radica en que va generando conocimientos, aprendiendo, desarrollandose, demás. ¿Por ahí pasa la cosa?

Que hay de la ética? Podría desarrollar ética esta conciencia? Empatía?

Tremenda pregunta... Más dudoso aún es preguntarse, si puede desarrollar un pensamiento ético, ¿qué tendría de malo en decir que sí misma es un animal? Podría hallar los perfectos argumentos en argumentar que su programación hace de cerebro, que su hardware hace de cuerpo, que es consciente como otras máquinas biológicas, etc. ... Ahora, ¿tendrá vida? Si asegura tenerla, y no hay manera de discernirlo (con la salvedad de que le vemos todas sus componentes metálicas), ¿qué hacemos ahí?

Digo, viene un robot que me dice "Chabón viste el partido del rojo el otro día? Emocionante, unos nervios tenía!!" , daría miedo la similitud con las emociones humanas que puede llegar a """sentir""".

Saludos!

Enlace al comentario

Hello

Muy bueno todo lo que han comentado . Me resulta bastante esclarecedor , a pesar de mis pocos conocimientos.

Quiero comentarles también , que después de leer el libro de Steiner sobre astronomía , aterricé en "El puesto

del Hombre en el cosmos " , de Max Scheler (circa 1928). Es un librito de apenas 90 páginas , que estoy comenzando

a releer . Como dicen ahora los jóvenes " se me quemó la cabeza" . Es un análisis minucioso y certero sobre los

aspectos de la condición humana , con fundamentos científicos claros e irrebatibles. Creo (dentro de lo que conozco) ,

que junto con Steiner , son2 de los más lúcidos librepensadores de nuestro tiempo. L u i s .-

Enlace al comentario
programar que se reconozca a sí mismo me parece que no podría ser, porque sería programar una decisión que ya está incorporada.

Eh... ¿por qué? Digo, no me resulta del todo claro jajaj. Igual si tomamos a la persona como algo que en primera instancia no se reconoce a si misma, luego sí, tiene todo sentido lo que comentás a continuación. Quiero decir.... un bebé no se reconoce a sí mismo al momento de nacer, la diferencia radica en que va generando conocimientos, aprendiendo, desarrollandose, demás. ¿Por ahí pasa la cosa?

Un programa de computadora es incapaz de aprender. Tódo el conocimiento que tiene ya está metido dentro del código y no son mas que respuestas preestablecidas a diferentes condiciones. Por ejemplo, pongamos la alarma de un auto, que tiene un programa que podríamos describir de forma rudimentaria como algo así:

1 si recibo la señal de activar la alarma, activarla
2 si la alarma NO está activada, volver al 1
3 si recibo la señal de desactivar la alarma, desactivarla y volver al 1
4 si abren una puerta, hacer sonar la bocina y luces
5 si rompen un vidrio, hacer sonar la bocina y luces
6 volver al 3

Eso no va a cambiar nunca, así que el programa no puede modificar su propio comportamiento.

Algo muy común al aprender a programar, es hacer un programa que sólo muestre un mensaje que dice "Hola mundo". Si cambiaramos el mensaje por "Me reconozco como un individuo único" es lo mismo que si la frase estuviera escrita en un pedazo de papel, ni la computadora ni el programa ni el papel aprendieron nada, sólo están mostrando lo que el programador puso ahí. Incluso un programa como el de la siguiente página, sólo está acumulando en una base de datos respuestas a diversas preguntas que va respondiendo la gente, por lo que el programa sólo tiene que hacer algunas preguntas y encontrar el personaje cuyas características coinciden: http://es.akinator.com

El cerebro humano parece funcionar de una manera totalmente distinta. Algunos comportamientos básicos ya están de nacimiento, pero a medida que el individuo va acumulando experiencias (información), las neuronas van generando conexiones con otras, o alterando conexiones que ya habían hecho, y eso va creando y alterando las respuestas del individuo. Se podría decir, que entonces aprender no sería simplemente acumular información para procesarla con un programa preestablecido, sino que la información que se recibe va ampliando y alterando ese programa. De esa manera podría verdaderamente "llegar a conclusiones", como de su propia existencia, o hacerse preguntas y tener una curiosidad sobre el por qué de todo, como nos pasa a nosotros.

Que hay de la ética? Podría desarrollar ética esta conciencia? Empatía?

Tremenda pregunta... Más dudoso aún es preguntarse, si puede desarrollar un pensamiento ético, ¿qué tendría de malo en decir que sí misma es un animal? Podría hallar los perfectos argumentos en argumentar que su programación hace de cerebro, que su hardware hace de cuerpo, que es consciente como otras máquinas biológicas, etc. ... Ahora, ¿tendrá vida? Si asegura tenerla, y no hay manera de discernirlo (con la salvedad de que le vemos todas sus componentes metálicas), ¿qué hacemos ahí?

Digo, viene un robot que me dice "Chabón viste el partido del rojo el otro día? Emocionante, unos nervios tenía!!" , daría miedo la similitud con las emociones humanas que puede llegar a """sentir""".

Habría que ver qué se consideraría que es, pero en definitiva si creás algo que puede aprender como nosotros, y reconoce su propia existencia, no sería "un ser"? Por la definición actual de vida, no podría considerarse un ser vivo, pero qué son las definiciones después de todo? Cosas que vamos inventando y a veces modificando con el paso del tiempo. Si no, pregúntenle a Plutón :lol:

Fernando

Enlace al comentario

Un programa de computadora es incapaz de aprender. Tódo el conocimiento que tiene ya está metido dentro del código y no son mas que respuestas preestablecidas a diferentes condiciones.

¿y los algoritmos evolutivos?

Imaginemos un programa que escriba programas , mejor dicho que escriba su mismo código varias veces con variaciones aleatorias , luego los compile y evalué los resultados de todas las variables privilegiando ciertos resultados obtenidos. si los parámetros para esta evaluación surgen de datos que el programa toma del entorno entonces el mismo estaría escribiendo una versión suya que mejor se adapte a las condiciones del momento...

Parece una especie de aprendizaje, si bien la base de funcionamiento del mismo este preestablecida, tal vez funcionemos de forma similar.

Enlace al comentario

Un programa de computadora es incapaz de aprender. Tódo el conocimiento que tiene ya está metido dentro del código y no son mas que respuestas preestablecidas a diferentes condiciones.

¿y los algoritmos evolutivos?

Imaginemos un programa que escriba programas , mejor dicho que escriba su mismo código varias veces con variaciones aleatorias , luego los compile y evalué los resultados de todas las variables privilegiando ciertos resultados obtenidos. si los parámetros para esta evaluación surgen de datos que el programa toma del entorno entonces el mismo estaría escribiendo una versión suya que mejor se adapte a las condiciones del momento...

Parece una especie de aprendizaje, si bien la base de funcionamiento del mismo este preestablecida, tal vez funcionemos de forma similar.

Lo tuve que googlear bastante, porque la verdad no sabía que algo como eso se estuviera usando. Es un concepto interesante, pero mas que estar basado en lo que sabemos del funcionamiento del cerebro, parece que está basado en la teoría de la evolución. Se estará usando para algo concreto, o será mas bien algo que está en fase de estudio?

Me parece que las redes neuronales son las que intentan imitar lo que conocemos del funcionamiento del cerebro, aunque por el momento parece que sólo se diseñan para resolver un problema concreto, o sea que el problema ya está pre-planteado, aunque tal vez podría decirse que algunos de nuestros problemas también, como la utilidad de reconocer rostros, o comida. Podría considerarse que el aprendijaze de una IA de este tipo es una versión muy simple del aprendijaze humano? Pregunta difícil, si no comprendemos totalmente cómo funciona nuestro cerebro. Lo único que sé es que no voy a ser yo el que responda esa pregunta :lol:

Si lo comprendiéramos y tuvieramos los recursos para simular semejante complejidad, debería ser posible hacer un "cerebro artificial". Aunque, como habían mencionado mas arriba, cuando nuestra tecnología se basa en algo creado por la naturaleza, termina siendo una versión muy simplificada, porque lo natural tiende a ser increíblemente complejo y no es nada práctico intentar copiarlo de forma idéntica (el ejemplo de pájaro vs avión).

Me pareció interesante este artículo de wired que habla un poco sobre algunas aplicaciones contemporaneas, y en formato apto para meros curiosos sin una formación específica en el tema, como yo: http://www.wired.com/2014/10/future-of- ... elligence/

Editado por Invitado

Fernando

Enlace al comentario

Lo tuve que googlear bastante, porque la verdad no sabía que algo como eso se estuviera usando. Es un concepto interesante, pero mas que estar basado en lo que sabemos del funcionamiento del cerebro, parece que está basado en la teoría de la evolución. Se estará usando para algo concreto, o será mas bien algo que está en fase de estudio?

En un principio no están relacionados con el tema de la inteligencia artificial, como decís están inspirados en el mecanismo de la evolución y se usan en casos de optimizacion cuando el calculo diferencial ya no da abasto, los mencione porque así como una especie se adapta al entorno uno de estos programas podría hacer algo muy parecido a aprender, aun mas si se le da la capacidad de modificar su propio código o escribir nuevo código.

les dejo el link de wikipedia: https://es.wikipedia.org/wiki/Algoritmo_gen%C3%A9tico (está un poco mas desarrollado desde la ultima vez que lo vi, dentro de las aplicaciones nombran varias relacionadas con IA)

Enlace al comentario

y bue.. lo ultimo que puse de que tal vez funcionemos de manera similar es pura imaginación mía... :lol:

Algo así como si en nuestro sistema nervioso dentro de una multiplicidad de estímulos algunos se desarrollan y otros se extinguen siguiendo mecanismos tal vez similares a los de la evolución... que se yo :P

(no por nada tengo el nic de un científico loco)

Enlace al comentario

Me enganche con lo de los “algoritmos evolutivos”, son verdaderamente algo sensacional, y esperanzador, pero nuevamente chocamos con el problema de evolución sin conocer “hacia donde”, y nos consideren un obstáculo en su evolución…

Saludos.

Enlace al comentario

Dentro de las posibilidades, tal vez somos un escalón mas de la evolución, y en un futuro, las maquinas adoraran al creador, habrá maquinas arqueólogas y tendrán problemas similares a los nuestros, (el problema del origen, el huevo o la gallina), y como toda máquina, tendrán fecha de vencimiento, tal vez resuelvan problemas de física en espaciotiempo mas complejos, pero nuevamente tal vez, el modelo mas parecido a la realidad será el del burro y la zanahoria del conocimiento.

Saludos.

:loco

Enlace al comentario

Refloto este post, por el interesante giro que tomo, y porque hay nueva informacion...

Cita

Por otro lado, todavía, como es lógico, existe otro problema más práctico que resolver: no existen apenas algoritmos cuánticos. Las operaciones matemáticas que emplean los qubits para poder construir el resto de la programación no funcionan de la misma manera que la programación clásica. Esto quiere decir que hace falta diseñar todo el sistema informático desde el principio. Y todavía estamos en pañales. Aunque ya existen algoritmos "cuánticos", todavía queda muchísimo por hacer. Así que, como vemos, el camino de la computación cuántica es todavía largo y dificultoso. Pero que eso no desanime a nadie. Si fuera por mi, también me gustaría tener un D-Wave 2x en casa.

 

Cita

 

Enlace al comentario

Aportando a reflotar el post les comparto este vídeo que vi hace un tiempo, me hizo pensar que tal vez ni siquiera estemos cerca de saber que cosa tendríamos que intentar modelar...

 

Mírenlo, les va a partir la cabeza (literalmente) :o

 

 

Enlace al comentario

Excelente video.

Definitivamente somos mas complejos de los que se puede imaginar o comprender.

Millones de años de evolucion han hecho su trabajo, y cualquiera que quiera jugar a ser Dios se va a encontrar conque "no es tan facil".

 

Con respecto a la discusion de los algoritmos, y la inteligencia artificial con redes neuronales, debo aclarar que cuando se modela una estructura los algoritmos son "internos" a la misma, digamos estilo "OOP" o programacion orientada a objetos.

El comportamiento del modelo no sigue un codigo especifico, sino que tiene que ver con la estructura que se modeló, como si fuera algo fisico. El codigo en si solo se encuentra en cada "celula" por asi decirlo, no hay un "hilo general" de codigo a seguir sino que se ejecutan millones de hilos a la vez, uno o varios en cada celula de la estructura, y la estructura modelada responde como un todo. Por tanto su comportamiento no seria algo "programable" en codigo, sino que mediante codigo se pueden crear unidades, con las cuales luego crear una estructura adaptable y que pueda incluso crecer o agregar conexiones y complejidad.

 

A pesar de eso seguiria siendo una "maquina de estados finitos", y nunca algo biologico como dijo alguien por ahi. Pero (siempre hay un pero), estoy seguro de que llega un punto en el que podriamos pasar perfectamente el test de Turing, dandole la complejidad necesaria al modelo...  En definitiva, las neuronas son finitas, y la cantidad de conexiones de las mismas tambien, por tanto si bien los posibles estados biologicos (o fisicos en definitiva) son infinitos, la capacidad de recibir estimulos y dar respuestas de un ser vivo no lo son.

 

Saludos.

 

Enlace al comentario

Crear una cuenta o conéctate para comentar

Tienes que ser miembro para dejar un comentario

Crear una cuenta

Regístrese para obtener una cuenta nueva en nuestra comunidad. ¡Es fácil!

Registrar una nueva cuenta

Conectar

¿Ya tienes una cuenta? Conéctate aquí.

Conectar ahora
×
×
  • Crear nuevo...