Un aporte para los que no saben nada de programacion de computadores, que es la herramienta de donde surgen los procedimientos automatizados de datos mal llamados, 'inteligencia artificial'.
Cuando emplearon una calculadora cientifica, la secuencia logica fue esta:
Leer datos -------------> hacer calculos con esos datos ------------> obtener resultados
Lo que podemos generalizar asi:
INPUT --------------> PROCESAMIENTO DE INFORMACION -----------------> OUTPUT
Si se tratara de una lista de cien datos de Input, la calculadora resulta comoda de usar.
Pero si la lista fuese sobre los mil datos de Input?????!
No resultaria mas conveniente usar algun codigo que represente la secuencia logica anterior?
Asi la calculadora realizaria todo el procedimiento, cuando invocaramos esas instrucciones en codigo y ademas, guardaria los resultados en un archivo supongamoslo.
Para eso se crearon los "lenguajes de programacion", para describir procesos de datos a partir de la logica de cada uno (llamado "algoritmo logico").
De manera que si somos capaces de resolver el procesamiento "pero, sin computador", seremos capaces de definir su secuencia logica (el Algoritmo).
Lo demas es solo tecnico:
expresar ese algoritmo en un codigo que represente cada paso.
El conjunto de codigos y su formato de empleo, es lo que se llama "Lenguaje de programacion".
Lo ultimo que hay que mencionar es que todo ello, deberia quedar expresado en el codigo que esta actuando sobre la maquina, o sea sobre el hardware de! computador.
Para que este hardware responda a nuestro codigo.
Esto lo hace un software llamado "compilador", que traduce cada instruccion escrita por nosotros, al lenguaje Assembler del computador (llamado "lenguaje de maquina")
Asi podemos ahorrarnos de hacer la pega de procesamiento de datos, de la lista de mas de mil datos, solamente escribiendo una secuencia de instrucciones en codigo de un lenguaje (llamado "programa").
Luego invicamos al Compilador y obtenemos un archivo en le guaje de maquina (con extension .exe por 'ejecutable', o sea entendible por el computador).
Ya estamos listos para comprender una problematica de la IA. La
Solo faltaria agregar que hoy dia no solo, se codifica un procesamiento de datos sino todas sus opciones de visualizacion de resultados (graficas de todos los tipos, diversos esquemas visuales).
Y que la gama de lenguajes partio con COBOL (para lo administrativo, decada del '60); FORTRAN 77 standard (Formulas Traslation, para procesamientos cientificos de datos); Pascal; C (generado sobre Cobol y Fortran); C++ (muy avanzado en materia grafica visual); Visual Basic y una larga lista derivada de los anteriores dlnde cada vez, se ha hecho mas "amistosa" la programacion de secuencia de instrucciones.
Ahora a lo central de la problematica de la IA:
SUPONGAMOS QUE EL 'OUTPUT' DE UNOS CIEN PROGRAMAS DE PROCESAMIENTO DE INFORMACION BASICA, PASA LUEGO A SER 'INPUT' DE OTRO PROCESAMIENTO POSTERIOR, POR OTRA BATERIA DISTINTA DE PROGRAMAS.
Y QUE EL RESULTADO DE TODO ESO DETERMINA, EL ACCIONAR DE MAQUINAS DENTRO DE LA SUPERFICIE DE UNA GRAN CIUDAD MUY POBLADA...
PREGUNTA I:
ESTARAN TODOS LOS PROGRAMAS INICIALES LIBRES DE 'ERRORES LOGICOS', PARA GENERAR OUTPUTS QUE SEAN RECONOCIBLES POR LA SEGUNDA SERIE DE PROGRAMAS (QUE LOS EMPLEARAN COMO INPUTS)??????????
PREGUNTA II:
EN CASO CONTRARIO, QUE SE PODRIA ESPERAR EN EL SEGUNDO PROCESAMIENTO DE DATOS, CON OUTPTS ERRONEOS CUANDO SEAN PROCESADOS COMO INPUTS, POR LA SEGUNDA SERIE DE PROGRAMAS????
Faltaria definir Error Logico y lo mejor es conmentarles un caso real.
Los otros errores son de sintaxis en escritura de codigos de programacion; o mal empleados de acuerdo a su formato.
Pero los errores LOGICOS son dificiles de encontrar, porque no residen en el codigo del programa sino que son parte, del Algoritmo Logico previo a su escritura...
Pero dejemoslo para mañana, asi no recargamos tanto la tematica.