quarta-feira, 28 de agosto de 2024

Informes: Sobre os Fundamentos Lógico-epistêmicos da Inteligência Artificial

 

 Na postagem intitulada: "An Analysis of the Epistemological Foundations of Machine Learning", publicado no blog SciELO em Perspectiva em 15 de agosto/24 [veja o link abaixo], apresento uma análise crítica dos fundamentos lógico-epistêmicos do aprendizado de máquina, com foco na limitação da autonomia dos sistemas de IA na geração de conhecimento. Contrastando essa possibilidade com as restrições teóricas impostas pelo teorema da incompletude de Chaitin, que estabelece um limite para a capacidade cognitiva da IA, de tal modo que a IA não pode superar a capacidade cognitiva humana.

https://humanas.blog.scielo.org/en/2024/08/15/epistemological-foundations-of-machine-learning/

     Esta postagem faz referência ao artigo publicado na Revista Transformação, intitulado: "Comentário a “Por trás da inteligência artificial: uma análise das bases epistemológicas do aprendizado de máquina”", publicado em 05/07/202. O referido artigo pode ser acessado por meio do seguinte link:

 https://revistas.marilia.unesp.br/index.php/transformacao/article/view/16171

 

domingo, 18 de fevereiro de 2024

Sobre a Filosofia Formalista da Matemática - Parte II

 Nesta postagem, estou dando continuidade à discussão anterior sobre o Programa Formalista da Matemática a partir da versão original de Hilbert e cogitando a possibilidade de uma reformulação do referido programa a partir de certos aspectos lógico-formais com base em um resultado obtido em Sarmento (2022).

Considere-se, inicialmente, o seguinte texto:  entrada da Stanford Encyclopedia of Philosophy sobre Hilbert’s Program [First published Thu Jul 31, 2003; substantive revision Fri May 24, 2019] o autor Prof. Richard Zach observa que:

"According to Hilbert, there is a privileged part of mathematics, contentual elementary number theory, which relies only on a 'purely intuitive basis of concrete signs'. Whereas the operating with abstract concepts was considered 'inadequate and uncertain', there is a realm of
extra-logical discrete objects, which exist intuitively as immediate experience before all thought. If logical inference is to be certain, then these objects must be capable of being completely surveyed in all their parts, and their presentation, their difference, their succession (like the objects themselves) must exist for us immediately, intuitively, as something which cannot be reduced to something else. (Hilbert 1922b, 202; the passage is repeated almost verbatim in Hilbert 1926, 376, Hilbert 1928, 464, and Hilbert 1931b, 267)

These objects were, for Hilbert, signs. The domain of contentual number theory consists in the finitary numerals, i.e., sequences of strokes. These have no meaning, i.e., they do not stand for abstract objects, but they can be operated on (e.g., concatenated) and compared. Knowledge of their properties and relations is intuitive and unmediated by logical inference. Contentual number theory developed this way is secure, according to Hilbert: no contradictions can arise simply because there is no logical structure in the propositions of contentual number theory.

The intuitive-contentual operations with signs forms the basis of Hilbert’s metamathematics. Just as contentual number theory operates with sequences of strokes, so metamathematics operates with sequences of symbols (formulas, proofs). Formulas and proofs can be syntactically manipulated, and the properties and relationships of formulas and proofs are similarly based in a logic-free intuitive capacity which guarantees certainty of knowledge about formulas and proofs arrived at by such syntactic operations. Mathematics itself, however, operates with abstract concepts, e.g., quantifiers, sets, functions, and uses logical inference based on principles such as mathematical induction or the principle of the excluded middle. These “concept-formations” and modes of reasoning had been criticized by Brouwer and others on grounds that they presuppose infinite totalities as given, or that they involve impredicative definitions (which were considered by the critics as viciously circular). Hilbert’s aim was to justify their use. To this end, he pointed out that they can be formalized in axiomatic systems (such as that of Principia or those developed by Hilbert himself), and mathematical propositions and proofs thus turn into formulas and derivations from axioms according to strictly circumscribed rules of derivation. Mathematics, so Hilbert, “becomes an inventory of provable formulas.” In this way the proofs of mathematics are subject to metamathematical, contentual investigation. The goal of Hilbert’s program is then to give a contentual, metamathematical proof that there can be no derivation of a contradiction, i.e., no formal derivations of a formula  and of its negation ¬. [Meus itálicos destacados em vermelho].

    A respeito dessa caracterização geral do programa formalista de Hilbert, W. Stegmüller (1977), pág. 341, observa que: "A parte essencialmente clássica [da matemática] é reconstruída axiomaticamente e inteiramente formalizada, mediante uso da lógica matemática; transforma-se, desse modo, em puro cálculo. A  outra parte, ou seja, a metamatemática, tem feição bem diversa: não se trata de teoria formalizada, mas, ao contrário, de teoria dotada de conteúdo e formulada em linguagem comum. Seu objeto de estudo é aquele puro cálculo, cabendo-lhe apresentar provas de que a teoria matemática, transformada em cálculo, está livre de contradições (é consistente). Na verificação metamatemática de que inexistem as contradições, só devem ser empregados, conforme Hilbert, os métodos que são aceitos pelos intuicionistas. ... As maneiras de inferir que, sob o prisma intuicionista, se mostram passíveis de crítica são utilizadas apenas na matemática formalizada; na metamatemática, ao contrário, só aparecem inferências que o intuicionismo considera isentas de crítica."

    Em ambos os extratos acima, de Zach e Stegmüller, foi enfatizado que em nível metamatemático -com o intuito de estabelecer provas de consistência das teorias matemáticas formalizadas-  somente seriam admissíveis procedimentos finitários estabelecidos pelos intuicionistas como legítimos, a saber, a utilização do princípio do terceiro-excluído apenas para conjuntos de cardinalidade finita, a rejeição de definições impredicativas e a possibilidade de existência de problemas indecidíveis na aritmética, haja vista que, de acordo com a abordagem intuicionista, poderia ocorrer que não teríamos um algoritmo capaz de decidir, em geral, 'se há um número natural que satisfaça uma propriedade P ou, caso contrário, seria possível demonstrar uma contradição lógica da hipótese de existência desse número'.

    W. Stegmüller (1977), pág. 514, assinala que: "Para o intuicionista, o conceito de prova ou demonstração substitui o conceito de verdade. Não se deve dar a esta palavra um sentido técnico especial, mas o amplo sentido que associamos a 'fundamentar'. Em cada situação concreta em que somos solicitados a fornecer uma prova (para uma dada assertiva), um particular conceito de prova está presente e, o que é mais importante, sempre dispomos de um método efetivo para decidir se uma pretensa prova de fato o é (embora não tenhamos qualquer processo para decidir se uma sentença é verdadeira ou não)." [Meus itálicos destacados em vermelho]. 

    Neste extrato, Stegmüller observa que o conceito de prova substitui, de acordo com a abordagem intuicionista, o conceito de verdade, haja vista que recorremos a procedimentos efetivos para verificar se há de fato uma sequência dedutiva para uma dada sentença (verdadeira) como consequência lógica de um argumento. 

    Do meu ponto de vista, o sistema de aritmética (recursiva) generalizada (abreviada aqui como AG) introduzido em Sarmento (2022) tem, em virtude de sua construção formal e do metateorema de completude para este sistema [veja Theorem 3.1.1 - completeness metatheorem em Sarmento (2022)], um caráter semântico deflacionário (i.e., "a função do predicado 'é verdadeiro' pode ser completamente explicada por meio do esquema T" - veja a entrada da Wikipédia abaixo). Pois, para qualquer sentença aritmética (ou a negação dessa sentença) expressável em AG há um procedimento efetivo de prova via esquema de indução de ordem superior (ou de ordem transfinita) que nos permite decidir se a dada sentença é demonstrável ou não em AG. Nesta acepção, pressupondo-se a consistência de AG, i.e., Consis(AG), temos um procedimento efetivo de decidibilidade, em um nível superior da hierarquia aritmética de AG, para a verdade de qualquer sentença aritmética (ou de sua negação) expressável em AG. Essa espécie de abordagem deflacionista é compatível, no meu entendimento, com a teoria minimalista advogada por P. Horwich. 

    Dessa perspectiva, ao contrário da versão formalista original de Hilbert, não se trata de defender, em nível metamatemático, uma abordagem estritamente finitária (ou construtivista estrito senso), haja vista que, após os resultados de Gödel (1931), métodos de caráter finitário não são suficientemente 'fortes' para uma prova de consistência da aritmética.

    Continuaremos essa discussão em uma próxima postagem.



Mais informações »

sexta-feira, 22 de setembro de 2023

Sobre a Filosofia Formalista da Matemática - Parte I

 No Capítulo intitulado "A Filosofia Formalista da Matemática" (pp. 380-386) da obra A Experiência Matemática (1989) os autores P. Davis e R. Hersh destacam que: 

    "Nos meados do séc. XX, o formalismo tornou-se a atitude filosófica dominante nos textos e outros escritos 'oficiais' da matemática. O construtivismo permaneceu como heresia com somente poucos adeptos. O platonismo  era e é acreditado por (quase) todos os matemáticos. Mas, como uma religião subterrânea, é praticado secretamente e raramente mencionado em público."

    "O formalismo contemporâneo descende do formalismo de Hilbert, mas não é a mesma coisa. Hilbert acreditava na realidade da matemática finita. Ele inventou a metamatemática a fim de justificar a matemática do infinito. Este realismo do finito com o formalismo do infinito é ainda defendido por alguns autores. Mas, mais frequentemente, o formalista não se preocupa com esta distinção. Para ele, a matemática, a partir da aritmética, é somente um jogo de deduções lógicas." [Minha ênfase].

    "O formalismo define a matemática como a ciência das demonstrações rigorosas." [Minha ênfase].

    "Resumidamente, a matemática, para o formalista, é a ciência das deduções formais, dos axiomas aos teoremas. Seus termos primitivos não são definidos. Seus enunciados não têm conteúdo, até que lhes seja fornecida uma interpretação." [Minha ênfase].

De fato, de acordo com a abordagem fundacional da corrente formalista, a matemática pode ser considerada como uma ciência (não empírica) das deduções formais na qual os enunciados teoréticos não são interpretados. Nesta acepção, a filosofia da matemática tem como 'objeto de estudo' os sistemas formais. E, por conseguinte, investiga, p.ex., as provas metamatemáticos de consistência, completude, categoricidade e decidibilidade dos sistemas formais para as diversas teorias matemáticas.

Como observa o prof. Manuel Lourenço no verbete sobre o Programa de Hilbert, v. Enciclopédia de termos lógico-filosóficos, Editores Branquinho, Murcho e Gomes (2006), pág. 627:

    "O problema crucial é que esses meios finitistas, tais como definidos anteriormente, têm um âmbito de aplicação relativamente pequeno, e, logo, na aritmética dos números inteiros é preciso lançar mão de processos não-finitistas, como, p.ex., no princípio do mínimo de uma propriedade aritmética. Assim, o método de assegurar o significado de uma teoria [axiomática abstrata] tem de ser revisto, e a ideia de Hilbert foi a de que a fonte de significado deve ser a demonstração da consistência da teoria. Assim, qualquer teoria axiomática abstrata teria significado, i.e., seria capaz de descrever uma estrutura, se houvesse uma demonstração de que dos axiomas por meio de regras de inferências não poderia derivar uma contradição." [minha ênfase]

O prof. Jairo da Silva --na obra Filosofias da Matemática (2007), pág. 193-- observa, de maneira concernente a essa questão do significado, que:

    "Claro que do ponto de vista do próprio Brouwer uma demonstração de consistência, ainda que segundo as mais estritas condições finitárias -- ainda mais rigorosas que as intuicionistas --, não significa grande coisa, já que a ausência de contradição não garante a verdade (o que, aliás, Kant já dissera).  Na realidade, Hilbert nunca explicou a contento em que sentido uma demonstração de consistência tem relevância epistemológica. Uma resposta possível a essa questão seria considerar a matemática fundada na intuição que descreve a 'mecânica' de um sistema formal -- como a única que a rigor nos fornece algum conhecimento, e suas extensões simbólico-formais consistentes como meros jogos simbólicos sem significado cuja única função é facilitar a nossa vida, possibilitando a derivação de asserções significativas por métodos mais eficientes."

O Prof. Jairo da Silva acrescenta que: "Essa garantia [da verdade] se daria pela demonstração da consistência da matemática formalizada no seio de uma matemática cuja verdade é evidente. O Programa de Hilbert comportava assim dois momentos: (1) a formalização das tradicionais teorias matemáticas (a aritmética dos reais, a análise, a teoria dos conjuntos etc.) e (2) a demonstração da consistência dessas versões formalizadas da matemática standard numa aritmética finitária cuja veracidade poderia ser diretamente verificada." [veja pág. 195 de da Silva(2007)].

Do meu ponto de vista, o problema do método de acordo com a abordagem formalista --para assegurar o significado de uma teoria matemática, bem como o caráter epistêmico de uma prova de consistência da teoria-- conforme os autores destacam acima, poderia ser reconsiderado em consonância com a minha proposta, a seguir, fundamentada no resultado estabelecido em uma publicação recente [veja a postagem intitulada Informes: Publicação dos Proceedings of the 19th Brazilian Logic Conference (XIX EBL) - no artigo "A note on Tarski's remarks about the non-admissibility of a general theory of semantics", pp. 573-582);  do Journal of Applied Logics - IFCoLog Journal of Logics and their Applications, Vol. 9 N. 1, 2022]. Proposta na qual podemos construir a partir de qualquer sistema axiomático escolhido (como uma base) para a aritmética (p.ex., a Aritmética Primitiva Recursiva (APR) ou a Aritmética de Heyting, ou qualquer outra versão axiomática da aritmética aceitável do ponto de vista intuicionista) uma "Aritmética Generalizada" (AG) de ordem superior  (denumerável) transfinita (Epsilon_0). Admitindo-se como um critério epistêmico para o limite superior de consistência de AG o metateorema da indefinibilidade da verdade (de Tarski) de tal modo que, com base neste critério, podemos estabelecer um sistema maximal consistente para AG

É claro que, como todos os intuicionistas desde de Brouwer, estou admitindo os ordinais transfinitos da forma alpha < epsilon_0, haja vista que de acordo com Dummett (veja ref. bibliogr. abaixo): "a tese segundo a qual não há um infinito completado [i.e., atual] significa simplesmente que tomar uma estrutura infinita, consiste em compreender o processo que a gera, e que se referir a uma tal estrutura, é se referir a esse processo, e, por conseguinte, reconhecer a estrutura como infinita, é reconhecer que o processo não termina." [meus itálicos]. Nesta acepção, podemos pressupor a construção, enquanto processo formal gerador, de uma hierarquia transfinita (denumerável) de conjuntos (potencialmente) denumeráveis de símbolos aritméticos em conformidade com a construção da AG introduzida em Sarmento (2022).

Nesta abordagem alternativa para um enfoque de caráter formalista estou admitindo --ao contrário do programa formalista original de Hilbert--,  a introdução do Esquema T para a definição da verdade (conforme Tarski) em cada um dos níveis superiores (i.e., >1) da hierarquia transfinita. Como consequência dessa abordagem podemos estabelecer um metateorema de completude para AG, demonstrando-se todas as sentenças aritméticas verdadeiras expressáveis em AG. Em uma postagem posterior continuaremos a discutir essa variante formalista.

    Como Davis e Hersh observam, na referida obra, "uma das razões para a dominância do formalismo foi sua ligação com o positivismo lógico. ... A 'Escola de Viena' dos positivistas lógicos defendia o objetivo de uma ciência unificada, codificada em um cálculo lógico formal e com um único método dedutivo. A formalização era defendida como objetivo de todas as ciências."

________________________

Dummett, M. (1977)    Elements of Intuitionism, Oxford University Press; p.56

sexta-feira, 18 de agosto de 2023

Aporias, antinomias e a "crise nos fundamentos da matemática"

 No séc. XIX, a descoberta de geometrias não euclidianas foi um marco importante no desenvolvimento da matemática, pois mostrou que sistemas geométricos alternativos à geometria elaborada por Euclides (cerca de 300 A.C.) são igualmente legítimos. Isto significa que as Geometrias de Lobachevsky e de Riemann constituem sistemas axiomáticos de espécie diversa e, contudo, equiconsistentes; apresentam modelos matemáticos que permitem interpretar, de modo análogo ao da euclidiana, os cinco postulados básicos dessas geometrias. Kant, em sua Crítica da Razão Pura, acreditava que "a geometria é uma ciência que determina sinteticamente, e portanto a priori, as propriedades do espaço". De acordo com Kant, o espaço geométrico 'real' estaria, por conseguinte, determinado pela Geometria de Euclides. Poincaré observou que, se de fato os axiomas da geometria fossem 'juízos sintéticos a priori', "estes deveriam se impor à nossa compreensão com tal força que não seria admissível conceber uma proposição contrária [refere-se a uma forma de negação do (quinto) Postulado de Euclides], nem muito menos construir sobre ela um novo sistema teórico" [minha ênfase]. Não haveria, portanto, uma única geometria para descrever o espaço. E, consequentemente, a geometria euclidiana, ao contrário do que supunha Kant, não constitui uma ciência que determina de modo sintético e a priori as propriedades do espaço 'real'.

Philip Davis e Reuben Hersh, no livro "A Experiência Matemática", no capítulo intitulado "O Mito de Euclides" expressam o seguinte ponto de vista sobre a 'crise nos fundamentos da matemática': "A visão que os manuais dão da filosofia da matemática é estranhamente fragmentária. O leitor fica com a impressão de que o assunto surgiu por inteiro pela primeira vez no fim do século dezenove, em resposta às contradições da teoria dos conjuntos de Cantor. Naquela época, falava-se de uma 'crise dos fundamentos'. Para restabelecer os fundamentos apareceram em cena três escolas, e gastaram trinta ou quarenta anos a discutir entre si. Verificou-se que nenhuma das três podia realmente fazer muito a respeito dos fundamentos, e a história terminou incompleta uns quarenta anos atrás, com Whitehead e Russell abandonando o logicismo, o formalismo de Hilbert derrotado pelo teorema de Gödel, e Brouwer a pregar o construtivismo em Amsterdã, ignorado por todo o resto do mundo matemático."

    "Este episódio da história da matemática é na verdade notável. Certamente foi um período crítico na filosofia da matemática. Mas, por uma mudança marcante no significado das palavras, o fato de que o fundacionismo foi em um certo período a tendência dominante na filosofia da matemática conduziu à identificação virtual da filosofia da matemática com os estudos dos fundamentos. Uma vez feita essa identificação, ficamos com a impressão peculiar: a filosofia da matemática foi um campo ativo durante quarenta anos. Foi despertada pelas contradições da teoria [ingênua] de conjuntos, e após algum tempo voltou a dormir."

    "Em verdade, sempre houve um pano de fundo filosófico, mais ou menos explícito, do pensamento matemático. O período fundacionista foi um em que matemáticos preeminentes estavam abertamente preocupados com problemas filosóficos, e se empenharam em controvérsias públicas sobre eles. Para entender o que aconteceu durante aquele período, dever-se-ia ver o que aconteceu antes e depois."  ...     "O Paradoxo de Russell e outras antinomias mostraram que a lógica intuitiva, longe de ser mais segura do que a matemática clássica, era na verdade muito mais traiçoeira, pois podia conduzir a contradições de uma maneira que nunca acontece na aritmética ou na geometria. Esta foi a "crise dos fundamentos", o problema central nas controvérsias do primeiro quarto do século XX."  

    Esta descrição concisa do referido período de "crise dos fundamentos" destaca que, com a descoberta das antinomias (não aporéticas, como no caso do reconhecimento das geometrias não euclidianas, no período de tempo anterior) ocorreu uma 'reação' da comunidade acadêmica matemática no sentido de restabelecer de forma segura e inquestionável a consistência dos princípios e métodos básicos das teorias matemáticas. Dessa forma, tendo em vista este objetivo, três importantes escolas fundacionais da matemática foram constituídas, a saber, as correntes logicista (e platonista), formalista (e nominalista) e construtivista (ou intuicionista). Como os autores enfatizam, nenhuma das três foi, de fato, bem sucedida em suas diretivas filosóficas. Pois, no caso da doutrina logicista o projeto de Russell não obteve êxito na redução lógica estrito senso da aritmética elementar; no caso do programa formalista de Hilbert, as provas de consistência absolutas (via aritmetização), para as diversas teorias matemáticas, falharam no âmbito da própria aritmética; e a doutrina construtivista, por sua vez, não foi capaz de estabelecer de forma categórica que a sua aritmética seria consistente apenas por rejeitar certos princípios da lógica clássica (como o 'princípio do terceiro excluído' para conjuntos infinitos), assim como a rejeição das definições impredicativas.

    A seguir, discutiremos, respectivamente, os conceitos de aporia e antinomia de uma perspectiva lógico-filosófica.

    Sobre as aporias

Conceito de aporia. Denominamos de aporia os argumentos contrários e igualmente concludentes com respeito a um mesmo tópico. Aristóteles definia as aporias como “a igualdade de conclusões contraditórias”.

Exemplo: considere, inicialmente, os seguintes axiomas da geometria euclidiana:

·        Postulado 1: Dados dois pontos distintos, há um único segmento de reta que os une;

·        Postulado 2: Um segmento de reta pode ser prolongado indefinidamente para construir uma reta;

·        Postulado 3: Dados um ponto qualquer e uma distância qualquer, pode-se construir uma circunferência de centro naquele ponto e com raio igual à distância dada;

·        Postulado 4: Todos os ângulos retos são congruentes (semelhantes);

·        Postulado 5: Por um ponto P exterior a uma reta r pode-se traçar apenas uma reta paralela a esta reta r. Ou, de modo equivalente, podemos expressar: Se duas linhas intersectam uma terceira linha de tal forma que a soma dos ângulos internos em um lado é menor que dois ângulos retos, então as duas linhas devem se intersectar neste lado se forem estendidas indefinidamente. (Postulado de Euclides ou “Postulado das Paralelas”)

 

Considere, agora, as geometrias não euclidianas de Lobachevsky e de Riemann, denominadas, respectivamente, de geometria hiperbólica e geometria elíptica. Na hiperbólica temos a seguinte forma de negação do Postulado 5: ‘existe uma infinidade de retas paralelas à inicial que passam no mesmo ponto’; enquanto, na elíptica, a negação pode ser expressa como: ‘não há nenhuma reta paralela à inicial’.

A partir dessas modificações (ou formas negativas) do Postulado 5, podemos elaborar argumentos distintos, igualmente válidos, de modo que seja possível concluir, por exemplo, que, no caso da geometria hiperbólica, ‘a soma dos ângulos internos de um triângulo é menor que 180º’ e, no caso da geometria elíptica, ‘a soma dos ângulos internos de um triangulo é maior que 180º’.

Conclusão: temos assim sistemas (axiomáticos) para geometrias diversas que nos permitem obter formas contraditórias de conclusões com base em argumentos igualmente válidos, partindo-se de premissas diferentes. Portanto, teorias distintas sobre um mesmo tópico apresentam caráter aporético.

    A estrutura formal dos argumentos para a oposição aporética

Sejam, p. ex., 𝑃1, 𝑃2, 𝑃3, 𝑃4 os postulados da Geometria de Euclides e 𝑃5 o postulado de

Euclides, então o seguinte argumento é válido (pois, é demonstrável nesta geometria):

(1) 𝑃1, 𝑃2, 𝑃3, 𝑃4, 𝑃5 ⊢ 𝑇, onde T denota a sentença: ‘a soma dos ângulos internos

de um triângulo é 180º’.

Nota: o símbolo ‘⊢’ em (1) denota o operador de consequência sintática; isto significa

que a sentença T é a conclusão obtida, por demonstração, a partir das premissas 𝑃𝑖(i = 1,

..., 5), i.e., o argumento (1) é um teorema da Geometria Euclidiana.

• Na Geometria de Lobachevsky, ou geometria hiperbólica, temos que:

(2) 𝑃1, 𝑃2, 𝑃3, 𝑃4, 𝑃′5 ⊢ ¬𝑇, onde 𝑃′5 denota a sentença: ‘existe uma infinidade de

retas paralelas à inicial que passam no mesmo ponto’ e ¬𝑇 expressa uma forma de

negação da sentença T anterior, i.e., ‘a soma dos ângulos internos de um triângulo é

menor que 180º’.

• Na Geometria de Riemann, ou geometria elíptica, temos que:

(3) 𝑃1, 𝑃2, 𝑃3, 𝑃4, 𝑃′′5 ⊢ ¬𝑇, onde 𝑃′′5 denota a sentença: ‘não há nenhuma reta

paralela à inicial’ e ¬𝑇 denota, analogamente, uma forma de negação da sentença

T, i.e., ‘a soma dos ângulos internos de um triangulo é maior que 180º’.

Observação: os argumentos (1), (2) e (3) são igualmente válidos, e apresentam formas

contraditórias de conclusões; não obstante, partem de premissas distintas (no caso, os

postulados estabelecidos acima).

Conclusão: as geometrias não euclidianas constituem um exemplo de construções teóricas

(axiomáticas) de caráter aporético no âmbito da matemática.

    Sobre as antinomias.

1. Antinomia.     Em geral, definimos uma antinomia como uma espécie de paradoxo

não-aporético, i.e., na seguinte acepção: uma antinomia consiste em duas

sentenças contrárias ou contraditórias deduzidas conjuntamente a partir de

argumentos igualmente válidos, no âmbito de uma mesma linguagem-objeto (ou

de uma mesma teoria formal).

2. Representação Formal das antinomias.

Suponha que em uma certa teoria ℑ, com os seguintes axiomas: 𝑃1, 𝑃2, 𝑃3, 𝑃4, 𝑃5,

formalizada em uma dada linguagem-objeto ℒ, tenhamos os seguintes argumentos

igualmente válidos:

1. 𝑃1, 𝑃2, 𝑃3, 𝑃4, 𝑃5 ⊢ 𝛼,

2. 𝑃1, 𝑃2, 𝑃3, 𝑃4, 𝑃5 ⊢ ¬𝛼,

3. de (1) e (2) deduzimos: 𝑃1, 𝑃2, 𝑃3, 𝑃4, 𝑃5 ⊢ 𝛼 ∧ ¬𝛼.

Assim, em (3) a sentença ‘𝛼 ∧ ¬𝛼’ expressa uma contradição e, por conseguinte,

dizemos que a teoria ℑ é inconsistente. Haja vista que, em ℑ temos uma condição

antinômica, i.e., uma contradição estrita entre sentenças efetivamente demonstradas

a partir dos mesmos axiomas de ℑ.

     Classificação das antinomias de acordo com Ramsey: antinomia lógica e

antinomia metamatemática.

De acordo com Ramsey, podemos classificar as antinomias em dois grupos distintos

conforme os conceitos sejam diretamente expressáveis ou não na linguagem-objeto

das teorias matemáticas. Com base neste critério, temos:

1. Antinomias lógicas: aquelas que envolvem noções expressáveis na

linguagem da teoria de conjuntos tais como, p.ex., a teoria intuitiva de

conjuntos de Cantor;

2. Antinomias semânticas (ou metamatemáticas): aquelas que abrangem

noções como ‘verdade’ ou ‘definibilidade’, noções que não podem ser

formuladas diretamente no interior das linguagens formais das teorias

matemáticas.

Exemplos:

No primeiro grupo (i.e., das antinomias lógicas) temos, p.ex., o “Paradoxo de Russell” (1902). No livro Introduction to Mathematical Logic (1997), de E. Mendelson, pág. 1: 

“Um conjunto significa qualquer coleção de objetos – por exemplo, o conjunto de todos os números naturais pares, ... Os objetos que constituem um conjunto são denominados seus membros ou elementos. Conjuntos podem ser eles próprios membros de conjuntos; por exemplo, o conjunto de todos os conjuntos de números naturais tem conjuntos como seus membros. Muitos conjuntos não são membros deles próprios. ... Entretanto, podem existir conjuntos que pertençam a si mesmos – por exemplo, o conjunto de todos os conjuntos [denominado de ‘conjunto universal’]. Agora, considere o conjunto V de todos aqueles conjuntos X tais que X não é membro de X. Claramente, pela definição [do conjunto V], V é um membro de V se, e somente se, V não for membro de V. Assim, se V for um membro de V, então V não é um membro de V; e, se V não for um membro de V, então V é um membro de V. Em qualquer caso, V pertence a V e V não pertence a V."

    Informalmente, podemos expressar que, a partir da definição do conjunto V, segue que [com base no 'princípio de abstração (irrestrito)']:

    (X)(X pertence a V se, e somente se, não é o caso que (X pertença a X))    (*) 

onde "(X)" denota o quantificador universal 'para todo X'; 

    da sentença (*) decorre, pela lei de instanciação universal (substituindo-se X por V), que:

    V pertence a V se, e somente se, não é o caso que V pertença a V. Contradição.

No segundo grupo (i.e., das antinomias semânticas) temos, p.ex., o “Paradoxo de Berry” (1906). No livro de Mendelson (1997), pág. 3:

“Há apenas um número finito de símbolos (letras, sinais de pontuação etc.) na língua portuguesa. Portanto, há somente um número finito de frases em português que contêm menos que 200 ocorrências de símbolos (admitindo-se repetições). Por conseguinte, há apenas um número finito de números naturais que podem ser definidos por meio de uma frase em português contendo menos de 200 ocorrências de símbolos. Seja k o menor número natural que não é definido por uma frase em português contendo menos que 200 ocorrências de símbolos. A frase em itálico contém menos que 200 ocorrências de símbolos e define o número k.”

    O paradoxo acima é construído devido ao fato de que não foi introduzida nenhuma restrição às regras de diferenciação da linguagem-objeto (no caso língua portuguesa) e da metalinguagem (no caso a própria língua portuguesa). Paradoxos dessa espécie são construídos em virtude do fenômeno linguístico de 'autorreferência' da linguagem. Vale observar que as linguagens naturais são semanticamente fechadas, ou seja, contêm a própria metalinguagem.

    Em uma próxima postagem continuaremos com a discussão sobre o tema.




 


sábado, 20 de maio de 2023

Algumas observações sobre a teoria da complexidade algorítmica da informação e sistemas de Inteligência Artificial (IA) - Parte III

Nesta postagem estou publicando um experimento com o ChatSonic, realizado na data de 24/04/2023, sobre alguns aspectos relevantes da teoria da complexidade algorítmica da informação. Acrescento, em seguida ao texto gerado pelo chatbot, um extrato da wikipedia sobre o referido tópico. No final da postagem apresento algumas observações acerca deste tópico.

Texto gerado pelo ChatSonic:

Introdução à complexidade algorítmica e números de Chaitin.

 A complexidade algorítmica é um conceito fundamental em ciência da computação e matemática. Ela se refere à quantidade de recursos computacionais necessários para executar um algoritmo, como tempo e espaço. A complexidade algorítmica é uma medida importante para avaliar a eficiência dos algoritmos e para entender as limitações da computação. Uma das áreas mais interessantes da complexidade algorítmica é a teoria da informação algorítmica. Ela estuda a quantidade de informação contida em um objeto computacional, como um programa de computador. Um dos conceitos mais importantes nesta área é o número de Chaitin. O número de Chaitin é uma constante real que representa a complexidade algorítmica de um objeto computacional. Ele foi descoberto pelo matemático e cientista da computação Gregory Chaitin na década de 1960. O número de Chaitin é um número transcendental, o que significa que ele é um número que não pode ser expresso como uma raiz de um polinômio com coeficientes inteiros.

Entendendo o teorema da incompletude de Chaitin.

 O número de Chaitin está intimamente ligado ao teorema da incompletude de Chaitin. Este teorema afirma que não existe um algoritmo que possa determinar o valor do número de Chaitin para todos os objetos computacionais. Em outras palavras, existe um limite fundamental para o conhecimento que podemos ter sobre a complexidade algorítmica de um objeto computacional. O teorema da incompletude de Chaitin é uma generalização do teorema da incompletude de Gödel, que afirma que não é possível construir um sistema formal capaz de provar todas as verdades matemáticas. O teorema de Chaitin mostra que a incompletude não é um problema apenas na matemática, mas também na computação.

O papel dos números de Chaitin em linguagens formalizadas.

 Os números de Chaitin têm um papel importante em linguagens formalizadas, como a teoria da computação e a teoria da linguagem. Eles são usados para definir e medir a complexidade de objetos computacionais, como programas de computador e linguagens formais. Os números de Chaitin são particularmente úteis na teoria da computabilidade, que estuda quais problemas podem ser resolvidos por algoritmos. Eles são usados para definir a complexidade de problemas computacionais e para mostrar que existem problemas que são intratáveis, ou seja, que não podem ser resolvidos por algoritmos.

 Os números de Chaitin e os limites dos sistemas formais.

Os números de Chaitin também têm implicações importantes para a teoria dos sistemas formais. Eles mostram que existe um limite fundamental para a capacidade dos sistemas formais de representar a complexidade algorítmica. Em outras palavras, os sistemas formais não podem representar toda a complexidade algorítmica que existe. Esta limitação tem implicações importantes para a teoria da linguagem. Ela mostra que nem todas as linguagens podem ser formalizadas, ou seja, representadas por um conjunto finito de regras e símbolos. Existem linguagens que são mais complexas do que os sistemas formais podem representar.

Aplicações dos números de Chaitin em ciência da computação e matemática.

 Os números de Chaitin têm várias aplicações importantes em ciência da computação e matemática. Eles são usados para definir a complexidade de problemas computacionais e para mostrar que existem problemas que são intratáveis. Eles também são usados para definir a complexidade de objetos computacionais, como programas de computador e linguagens formais. Os números de Chaitin têm aplicações importantes na teoria da informação, que estuda a quantidade de informação contida em um objeto computacional. Eles também têm aplicações em criptografia, onde são usados para gerar números aleatórios.

Posição dos números de Chaitin na hierarquia de Chomsky.

 A hierarquia de Chomsky é uma classificação das linguagens formais em quatro tipos, de acordo com a sua complexidade. Os números de Chaitin estão relacionados com a hierarquia de Chomsky porque eles podem ser usados para definir a complexidade de linguagens formais. Os números de Chaitin são particularmente úteis para definir a complexidade das linguagens recursivamente enumeráveis, que correspondem ao tipo 0 da hierarquia de Chomsky. Estas linguagens são as mais complexas da hierarquia de Chomsky e incluem linguagens como a linguagem dos números primos.

Implicações dos números de Chaitin para a inteligência artificial.

 Os números de Chaitin têm implicações importantes para a inteligência artificial. Eles mostram que existe um limite fundamental para a capacidade dos sistemas formais de representar a complexidade algorítmica. Isso significa que existe um limite para o que a inteligência artificial pode fazer. Por exemplo, existem problemas que são intratáveis, ou seja, que não podem ser resolvidos por algoritmos. Isso significa que a inteligência artificial terá limitações na sua capacidade de resolver certos tipos de problemas.

Direções futuras de pesquisa em números de Chaitin e complexidade algorítmica.

 Os números de Chaitin e a teoria da informação algorítmica são áreas ativas de pesquisa em ciência da computação e matemática. Existem muitas questões em aberto nesta área, como a relação entre os números de Chaitin e o teorema da incompletude de Gödel, e a aplicação dos números de Chaitin em áreas como a criptografia.

Desafios em utilizar os números de Chaitin.

 Os números de Chaitin apresentam vários desafios para os pesquisadores que trabalham nesta área. Um dos desafios é a computação dos números de Chaitin para objetos computacionais específicos. Como mencionado anteriormente, não existe um algoritmo que possa determinar o valor do número de Chaitin para todos os objetos computacionais. Outro desafio é entender as implicações dos números de Chaitin para a teoria da linguagem. Como mencionado anteriormente, os números de Chaitin mostram que nem todas as linguagens podem ser formalizadas. Isso significa que existe um limite para o que podemos expressar em linguagem.

Conclusão: A importância dos números de Chaitin na compreensão dos limites das linguagens formalizadas.

 Os números de Chaitin são um conceito fundamental em ciência da computação e matemática. Eles representam a complexidade algorítmica de objetos computacionais e têm implicações importantes para a teoria da linguagem e para a inteligência artificial. Os números de Chaitin mostram que existe um limite fundamental para a capacidade dos sistemas formais de representar a complexidade algorítmica. Isso significa que nem todas as linguagens podem ser formalizadas e que existem problemas que são intratáveis. A compreensão dos números de Chaitin é importante para entender os limites das linguagens formalizadas e para desenvolver soluções eficientes para problemas computacionais. A pesquisa nesta área é de grande importância para avançar o conhecimento em ciência da computação e matemática.

CTA: Para saber mais sobre números de Chaitin e complexidade algorítmica, consulte os artigos e livros recomendados nesta área.

    Texto disponível na wikipedia sobre o tópico gerado pelo ChatSonic acima:

Na Wikipédia temos a seguinte observação sobre a Teoria Algorítmica da Informação, de acordo com a abordagem denominada de Complexidade de Kolmogorov (veja a entrada correspondente na Wiki):

"Solomonoff propôs o uso da regra de Bayes para obter previsão indutiva, ou seja, para prever a seqüência de uma string binária. Para isto ele usou como probabilidade prévia a probabilidade universal, que pode ser definida como , porque ela domina toda probabilidade prévia semi-computável concebível. Isto constitui-se no núcleo dos métodos de inteligência artificial MDL (minimum description length) e MML (minimum message length).

A complexidade  induz um conceito de distância (ou similaridade), chamada distância de informação, que é uma medida a priori e absoluta sobre o conjunto das strings binárias. Esta distância pode ser aplicada em diversos e diferentes contextos de forma muito similar a outras medidas de distância definidas na matemática. O interessante é que podemos aproximar esta medida usando um programa compressor de dados e efetuar medições empíricas. Destacam-se como aplicações desta distância o reconhecimento de genoma, a classificação automática de música, e o estabelecimento de uma hierarquia de linguagens humanas.

Chaitin construiu um paradoxo envolvendo o tamanho dos programas que constitui-se em uma prova alternativa ao que ficou conhecido como prova de Gödel (ou Teorema da incompletude de Gödel). Chaitin baseou-se no paradoxo de Berry que supõe considerar o menor número inteiro positivo que não pode ser definido por uma frase em português com menos que 1.000.000.000 de caracteres. No entanto, a própria definição do problema define o número e tem menos de 1.000.000.000 de caracteres, o que é uma contradição. Isto resulta que strings não podem ser produzidas por programas que tenham menos complexidade que a própria string, sendo isto um limite dos sistemas formais.

Uma outra interessante aplicação de complexidade de Kolmogorov é o número  , proposto por Chaitin, definido como:  Nesta fórmula,  representa um programa que pára (finaliza) e  é o tamanho deste programa. É interessante observar que , representando  a probabilidade de um programa qualquer parar (finalizar).  é um número real aleatório (cujos dígitos formam uma sequência aleatória) e não computável (ou seja, não pode ser computado por um programa na máquina de Turing). Além disto,  contém em si, da forma mais compacta possível, todas as verdades matemáticas possíveis de serem expressas." [minha ênfase]

__________________


Note que, no trecho em itálico do extrato da wikipedia acima, poderíamos restringir a complexidade representada pelo número de Chaitin à seguinte sentença: 'este número Ômega contém em si todas as verdades aritméticas possíveis de serem expressas em uma linguagem formalizada de ordem superior limitada pelo número ordinal transfinito Epsilon_0'. Haja vista que, a prova da Conjectura de Tarski [veja um post anterior] estabelece um limite superior para a formalização de uma semântica geral para a Aritmética Recursiva. 

    Isto significa que a complexidade computacional dada pelo número de Chaitin estaria associada à ordem transfinita da hierarquia de linguagens formalizadas para a Aritmética Recursiva. Correspondendo, por conseguinte, a uma espécie de "oráculo" não-recursivo para a aritmética. 

    Consequentemente, haveria um limite com respeito à capacidade computacional de sistemas de IA para expressar e demonstrar teoremas da aritmética.


 

segunda-feira, 3 de abril de 2023

Um experimento com o ChatSonic - Parte II

 Nesta data de 03/04/23, utilizando-se do ChatSonic para a elaboração de um pequeno artigo referente à 'Conjectura de Tarski sobre a inadmissibilidade de uma teoria semântica generalizada para linguagens formalizadas', obtive o seguinte texto:   

Introdução à Conjectura de Tarski

A Conjectura de Tarski, com o nome do famoso matemático Alfred Tarski, é uma proposta que procura explorar os limites das linguagens formalizadas em termos da sua capacidade de expressar a verdade. A conjectura postula que nenhuma linguagem formalizada, incluindo as que utilizam aritmética recursiva, pode ser utilizada para expressar o conceito de verdade sem esbarrar em contradições. Esta afirmação tem implicações de grande alcance, não só para a matemática, mas também para a filosofia, a linguística e a informática.

Compreender a Semântica Geral

Para apreciar plenamente a Conjectura de Tarski, é essencial compreender o conceito de semântica geral. A semântica geral é uma teoria filosófica e linguística que procura explorar a relação entre a linguagem e a realidade. De acordo com a semântica geral, a linguagem não é uma representação exata da realidade. Em vez disso, é uma série de símbolos que utilizamos para descrever as nossas experiências da realidade. Assim, a nossa compreensão da realidade é moldada não só pelo mundo à nossa volta, mas também pela linguagem que utilizamos para a descrever.

Linguagens formalizadas e aritmética recursiva

As linguagens formalizadas são linguagens que foram despojadas de toda a ambiguidade e são utilizadas principalmente na matemática e nas ciências informáticas. Estas linguagens são concebidas para serem precisas e inequívocas, tornando-as ideais para utilização na lógica formal e noutras disciplinas matemáticas. A aritmética recursiva, por outro lado, é um ramo da matemática que lida com o estudo das funções recursivas na aritmética.

A não admissibilidade da semântica geral em línguas formalizadas

As posturas da Conjectura Tarski que formalizam as linguagens, incluindo as que utilizam aritmética recorrente, não são capazes de expressar o conceito de verdade sem se depararem com contradições. Esta afirmação baseia-se no facto de que as linguagens formalizadas são inerentemente limitadas na sua capacidade de expressar ideias complexas. Devido a isto, as linguagens formalizadas não podem representar com precisão as nuances da realidade, o que é essencial para expressar adequadamente o conceito de verdade.

Críticas à Conjectura de Tarski

Embora a Conjectura de Tarski tenha merecido muita atenção nos círculos matemáticos, também tem enfrentado críticas de alguns quadrantes. Uma das principais críticas à conjectura é que o seu alcance é demasiado restrito. Os críticos argumentam que a conjectura só se aplica a linguagens formalizadas e não tem em conta outras formas de linguagem, tais como a linguagem natural. Outra crítica é que a conjectura assume que o conceito de verdade é um conceito bem definido e universalmente aceito.

Teorias alternativas à Conjectura de Tarski

Várias teorias alternativas foram propostas para desafiar a Conjectura de Tarski. Uma dessas teorias é a teoria da lógica paraconsistente. Esta teoria postula que as contradições podem existir em linguagens formalizadas sem levar a um colapso lógico. Outra teoria é a teoria do dialeísmo, que argumenta que algumas afirmações podem ser verdadeiras e falsas ao mesmo tempo.

Implicações da Conjectura Tarski

A Conjectura de Tarski tem implicações de grande alcance em vários campos, incluindo matemática, filosofia, linguística e informática. Em matemática, a conjectura desafia os próprios fundamentos das linguagens formalizadas e da aritmética recursiva. Em filosofia, desafia a nossa compreensão da relação entre a linguagem e a realidade. Na linguística, desafia a nossa compreensão dos limites da linguagem, e na informática, desafia a nossa compreensão dos limites da inteligência artificial.

Aplicações da semântica geral em ambientes não formalizados

Embora a semântica geral possa não ser aplicável em linguagens formalizadas, tem várias aplicações em ambientes não formalizados. A compreensão das nuances da língua, incluindo a forma como ela molda a nossa compreensão da realidade, pode ajudar-nos a comunicar mais eficazmente, melhorar as nossas relações, e compreender melhor o mundo à nossa volta. Neste sentido, a semântica geral tem implicações importantes para a vida quotidiana.

Conclusão: O Debate em curso sobre a Conjectura de Tarski e o Papel da Semântica Geral

A Conjectura de Tarski continua a ser tema de intenso debate nos círculos matemáticos e filosóficos. Embora a conjectura desafie os próprios fundamentos das linguagens formalizadas e da aritmética recursiva, tem também enfrentado críticas pelo seu âmbito restrito e aplicabilidade limitada. Apesar disto, a conjectura tem implicações de grande alcance em vários campos, incluindo matemática, filosofia, linguística, e informática. Ao mesmo tempo, a semântica geral continua a desempenhar um papel importante para nos ajudar a compreender melhor as nuances da linguagem e a forma como ela molda a nossa compreensão da realidade. Como tal, o debate sobre a Conjectura de Tarski e o papel da semântica geral irá provavelmente continuar durante muitos anos.

CTA:

Para saber mais sobre a Conjectura de Tarski e semântica geral, considere fazer um curso de filosofia, matemática, ou linguística. Em alternativa, pode ler livros e artigos sobre o assunto a partir de fontes reputadas. Mantenha uma mente aberta e esteja disposto a participar em discussões ponderadas com outros que possam ter opiniões diferentes sobre o assunto.



Comentários: do meu ponto de vista o texto (conciso) foi bem elaborado, destacando-se alguns aspectos relevantes para a discussão filosófico-linguística da atualidade sobre a temática. Não obstante, alguns pontos importantes não foram abordados no texto gerado pelo Chatbot, a saber, a relação entre linguagem/metalinguagem, a questão da aritmetização das linguagens formalizadas, o metateorema da indefinibilidade da verdade de Tarski, bem como a prova recentemente estabelecida da referida conjectura (no âmbito da Aritmética Recursiva). De um modo geral, tenho a impressão de que esse mecanismo de IA apresenta uma razoável capacidade de geração de textos.


    Em um próximo post discutiremos alguns aspectos relacionados a esses algoritmos de IA.