Blog

A ORIGEM DA INTELIGÊNCIA ARTIFICIAL ( AI – ARTIFICIAL INTELLIGENCE ):

Este é o 2º de uma série de 10 blogs em que iremos detalhar a história da Inteligência Artificial
Compartilhar no facebook
Compartilhar no twitter
Compartilhar no linkedin

O  PRIMEIRO  CICLO  ( PARTE 2 )

Este é o 2º de uma série de 10 blogs em que iremos detalhar a história da Inteligência Artificial:

  1. Os 2 primeiros blogs relatam a Origem de AI e o primeiro ciclo durante 1950 e 1982
  1. No 3º e 4º blogs discutiremos o ressurgimento de AI e as conquistas de 1983 a 2010
  1. No 5º e 6º blogs discutiremos como os sistemas de AI já rivalizam com humanos
  1. No 7º e 8º blogs discutiremos o atual ciclo de AI ( Inteligência Artificial )
  1. No 9º e 10º blogs discutiremos o que podemos prever para cérebros, mentes e máquinas

Em continuidade ao blog anterior, neste Blog vamos falar das 5 categorias de AI restantes ( em continuidade as 3 já abordadas no blog anterior ), bem como o interessante período de recesso de AI. 

PROCESSAMENTO DE LINGUAGEM NATURAL (PNL)

Em 1957, Chomsky revolucionou a linguística com a gramática universal, um sistema baseado em regras para o entendimento da sintaxe [21]. 

Isso formou o primeiro modelo que os pesquisadores puderam usar para criar sistemas de PNL bem-sucedidos na década de 1960, incluindo o SHRDLU, um programa que trabalhava com pequenos vocabulários e era parcialmente capaz de entender documentos textuais em domínios específicos [22]. 

Durante o início da década de 1970, os pesquisadores começaram a escrever ontologias conceituais, que são estruturas de dados que permitem aos computadores interpretar relações entre palavras, frases e conceitos; essas ontologias permanecem amplamente em uso até hoje [23].

RECONHECIMENTO DE ÁUDIO E PROCESSAMENTO DE FALA PARA TEXTO

A questão de saber se um computador poderia reconhecer a fala foi proposta pela primeira vez por um grupo de três pesquisadores da AT&T Bell Labs em 1952, quando eles construíram um sistema para reconhecimento de dígitos isolados para um único falante [24]. 

Esse sistema foi amplamente aprimorado durante o final dos anos 1960, quando Reddy criou o Hearsay I, um programa que tinha baixa precisão, mas foi um dos primeiros a converter grande vocabulário de fala contínua em texto. 

Em 1975, seus alunos Baker e Baker criaram o Dragon System [25], que melhorou ainda mais o Hearsay I usando o Hidden Markov Model (HMM), um modelo probabilístico unificado que lhes permitiu combinar várias fontes, como acústica, linguagem e sintaxe. 

Hoje, o HMM continua sendo uma estrutura eficaz para o reconhecimento de voz [26].

PROCESSAMENTO DE IMAGENS E VISÃO COMPUTACIONAL

No verão de 1966, Minsky contratou um estudante de graduação do primeiro ano no MIT e pediu-lhe que resolvesse o seguinte problema: conecte uma câmera de televisão a um computador e faça com que a máquina descreva o que vê [27].

O objetivo era extrair a estrutura tridimensional das imagens, permitindo assim que os sistemas sensoriais robóticos imitassem parcialmente o sistema visual humano. 

A pesquisa em visão computacional no início dos anos 1970 formou a base para muitos algoritmos que existem hoje, incluindo a extração de bordas de imagens, rotulando linhas e círculos e estimando o movimento em vídeos [28].

APLICAÇÕES COMERCIAIS

Os avanços teóricos acima levaram a várias aplicações, muitas das quais não chegaram a ser usadas na prática naquela época, mas prepararam o terreno para que seus derivados fossem usados ​​comercialmente mais tarde. Alguns desses aplicativos são discutidos a seguir.

CHATTERBOTS OU CHATBOTS

Entre 1964 e 1966, Weizenbaum criou o primeiro chatbot, ELIZA, em homenagem a Eliza Doolittle que foi ensinada a falar corretamente no romance de Bernard Shaw, Pygmalion ( posteriormente adaptado para o filme My Fair Lady ). 

ELIZA poderia realizar conversas que às vezes levariam os usuários a acreditar que estavam se comunicando com um humano, mas, por acaso, ELIZA apenas dava respostas padrão que muitas vezes não faziam sentido [29]. 

Mais tarde, em 1972, o pesquisador médico Colby criou um chatbot “paranoico”, PARRY, que também era um programa estúpido. 

Ainda assim, em jogos de imitação curtos, os psiquiatras foram incapazes de distinguir as divagações de PARRY daquelas de um ser humano paranoico [30].

Figura 6: Conversas com ELIZA de Weizenbaum e PARRY de Colby

ROBÓTICA

Em 1954, Devol construiu o primeiro robô programável chamado Unimate, que foi uma das poucas invenções de AI de seu tempo a ser comercializada; foi comprado pela General Motors em 1961 para uso em linhas de montagem de automóveis [31]. 

Melhorando significativamente no Unimate, em 1972, pesquisadores da Universidade Waseda em 1972 construíram o primeiro robô humanoide inteligente em escala real do mundo, WABOT-1 [32]. 

Embora fosse quase um brinquedo, seu sistema de membros permitia que andasse e agarrasse, bem como transportar objetos com as mãos; seu sistema de visão          ( consistindo em seus olhos e ouvidos artificiais ) permitia medir distâncias e direções para objetos; e sua boca artificial permitia que ele conversasse em japonês [32]. 

Isso gradualmente levou a um trabalho inovador em visão de máquina, incluindo a criação de robôs que podiam empilhar blocos [33].

Figura 7: Cronograma de Invenções Importantes em Inteligência Artificial durante 1950-75

A  FASE  DO  RECESSO  –  O  INVERNO  DE  AI

Apesar de alguns sucessos, em 1975 os programas de AI eram amplamente limitados à solução de problemas rudimentares. 

Em retrospectiva, os pesquisadores perceberam duas questões fundamentais com sua abordagem: Poder de computação limitado, e muito caro

Em 1976, o supercomputador mais rápido do mundo ( que teria custado mais de cinco milhões de dólares ) só era capaz de executar cerca de 100 milhões de instruções por segundo [34]. 

Em contraste, o estudo de 1976 por Moravec indicou que mesmo as capacidades de combinação de bordas e detecção de movimento sozinhas de uma retina humana exigiriam um computador para executar tais instruções dez vezes mais rápido [35]. 

Da mesma forma, um ser humano tem cerca de 86 bilhões de neurônios e um trilhão de sinapses; cálculos básicos usando os números fornecidos [36,37] indicam que a criação de uma rede neural desse tamanho teria custado mais de 1,6 trilhão de dólares, consumindo todo o PIB dos EUA de 1974.

O MISTÉRIO POR TRÁS DO PENSAMENTO HUMANO

Os cientistas não entendiam como o cérebro humano funciona e permaneceram especialmente alheios aos mecanismos neurológicos por trás da criatividade, do raciocínio e do humor. 

A falta de compreensão sobre o que exatamente os programas de aprendizado de máquina deveriam tentar imitar representou um obstáculo significativo para o avanço da teoria da inteligência artificial. 

Na verdade, na década de 1970, cientistas de outras áreas até começaram a questionar a noção de “imitar um cérebro humano”, proposta por pesquisadores de AI, por exemplo, alguns argumentaram que se os símbolos não têm “significado” para a máquina, então a máquina não pode ser descrita como “pensando” [38].

Por fim, ficou óbvio para os pioneiros que eles haviam subestimado grosseiramente a dificuldade de criar um computador de AI capaz de vencer o jogo de imitação.

Por exemplo, em 1969, Minsky e Papert publicaram o livro Perceptrons [39], no qual indicaram severas limitações da rede neural de uma camada oculta de Rosenblatt. 

Como foi coautoria de um dos fundadores da inteligência artificial que atestava as deficiências das redes neurais, este livro serviu como um sério impedimento para a pesquisa em redes neurais por quase uma década [40,41,42].

Nos anos seguintes, outros pesquisadores começaram a compartilhar as dúvidas de Minsky no futuro incipiente de AI ​​.

Em uma conferência de 1977, um agora muito mais circunspecto John McCarthy observou que criar tal máquina exigiria “avanços conceituais”, porque “o que você quer é 1,7 Einsteins e 0,3 do Projeto Manhattan, e você quer os Einsteins primeiro. Acredito que levará de cinco a 500 anos”[43].

O boom da década de 1950 elevou as expectativas a patamares tão audaciosos que, quando os resultados não se materializaram em 1973, os governos dos EUA e do Reino Unido retiraram o financiamento de pesquisas em AI [41]. 

Embora o governo japonês tenha fornecido financiamento adicional temporariamente em 1980, ele rapidamente se desiludiu no final da década de 1980 e retirou seus investimentos novamente [42, 40]. 

Esta fase de recesso ( particularmente entre 1974 e 1982 ) é comumente referida como o “inverno da AI”, foi a era quando as pesquisas em inteligência artificial quase pararam completamente. 

De fato, durante esse tempo e nos anos subsequentes, “alguns cientistas da computação e engenheiros de software evitariam o termo inteligência artificial por medo de serem vistos como sonhadores fanáticos” [44].

“porque o que você quer é 1,7 Einsteins e 0,3 do Projeto Manhattan, e você quer os Einsteins primeiro. Acredito que levará de cinco a 500 anos” – John McCarthy, 1977

A atitude predominante durante o período 1974-1982 foi muito ruim, uma vez que os poucos avanços substanciais que ocorreram durante este período passaram essencialmente despercebidos e foram empreendidos esforços significativos para os recriar. 

Dois desses avanços foram os seguintes:

1 – A primeira é a técnica de retro propagação, comumente usada hoje para treinar redes neurais de maneira eficiente na atribuição de pesos quase ótimos a suas arestas. 

Embora tenha sido introduzido por vários pesquisadores independentemente ( por exemplo, Kelley, Bryson, Dreyfus e Ho ) na década de 1960 [45] e implementado por Linnainmaa em 1970 [46], foi principalmente ignorado. 

Da mesma forma, a tese de 1974 de Werbos que propunha que esta técnica poderia ser usada efetivamente para treinar redes neurais não foi publicada até 1982, quando a fase de recesso estava chegando ao fim [47,48]. 

Em 1986, esta técnica foi redescoberta por Rumelhart, Hinton e Williams, que a popularizaram mostrando seu significado prático [49].

2 – A segunda é a rede neural recorrente (RNN), que é análoga à rede perceptron de Rosenblatt, mas não é feed-forward porque permite que as conexões vão para as camadas de entrada e saída. 

Essas redes foram propostas por Little em 1974 [55] como um modelo biologicamente mais preciso do cérebro. 

Lamentavelmente, os RNNs passaram despercebidos até que Hopfield os popularizasse em 1982 e os melhorou ainda mais [50,51].

CONCLUSÃO  DOS  2  PRIMEIROS  BLOGS

As características definidoras de um ciclo são uma fase de boom, quando pesquisadores, desenvolvedores e investidores se tornam excessivamente otimistas e ocorre um enorme crescimento, e uma fase de colapso, quando os investimentos são retirados e o crescimento reduz substancialmente. 

Pela história apresentada neste artigo, podemos ver que a AI passou por esse ciclo durante 1956 e 1982.

Nascido da visão de Turing e Minsky de que uma máquina poderia imitar a vida inteligente, a AI recebeu seu nome, missão e campanha publicitária da conferência organizada por McCarthy na Dartmouth University em 1956. 

Isso marcou o início da fase de expansão do ciclo de propaganda de AI. 

Entre 1956 e 1973, muitos avanços teóricos e práticos penetrantes foram descobertos no campo da AI, incluindo sistemas baseados em regras; redes neurais rasas e profundas; processamento de linguagem natural; processamento de fala; e reconhecimento de imagem. 

As conquistas ocorridas durante esse período formaram os modelos iniciais dos sistemas de AI atuais.

O que também ocorreu durante esta fase de boom foi “exuberância irracional” [52]. 

Os pioneiros da AI ​​foram rápidos em fazer previsões exageradas sobre o futuro de máquinas potentes de inteligência artificial. 

Em 1974, essas previsões não se concretizaram, e os pesquisadores perceberam que suas promessas haviam sido infladas. 

Nesse ponto, os investidores também se tornaram céticos e retiraram o financiamento. 

Isso resultou em uma fase de recesso, também chamada de inverno de AI, quando a pesquisa em AI era lenta e até mesmo o termo “inteligência artificial” foi rejeitado. 

A maioria das poucas invenções durante este período, como retro propagação e redes neurais recorrentes, foram amplamente esquecidas, e um esforço substancial foi gasto para redescobri-las nas décadas subsequentes.

Em geral, os ciclos são espadas de duas pontas, e a exibida por AI entre 1956 e 1982 não foi diferente. 

Deve-se tomar cuidado para aprender com esse ciclo: os sucessos de sua fase de expansão devem ser lembrados e apreciados, mas seu entusiasmo excessivo deve ser visto com pelo menos algum ceticismo para evitar as penalidades completas da fase de recesso, no entanto, como a maioria dos ciclos, “rebentos verdes” começaram a aparecer novamente em meados dos anos 1980 e houve um ressurgimento gradual da pesquisa de AI durante 1983 e 2010.

Discutiremos esses e outros desenvolvimentos relacionados em nosso próximo blog: “Ressurgimento da Inteligência Artificial durante o período de 1983 a 2010” [57].

Fonte: Analytics Insight Magazine – artigo do Dr. Alok Aggarwal 

Informações adicionais sobre a história da AI podem ser encontradas em:

  • McCorduck, Pamela (2004), Machines Who Think (2nd ed.), Natick, MA: A. K. Peters, Ltd. ISBN 1-56881-205-1, OCLC 52197627.
  • Crevier Daniel (1993). AI: The Tumultuous Search for Artificial Intelligence. New York, NY: Basic Books. ISBN 0-465-02997-3.
  • Russell Stuart; Norvig, Peter (2003). Artificial Intelligence: A Modern Approach. London, England: Pearson Education. ISBN 0-137-90395-2.

BIBLIOGRAFIA  CITADA  NESTE  BLOG

 ( numeração  sequencial bibliográfica  dos  2  primeiros  blogs )

  1. “Noam Chomsky’s Theory of Universal Grammar Is Right; It’s Hardwired into Our Brains”. Medical Daily. 2015-12-07.
  2. Winograd, Terry (February 1971) “Procedures as a Representation for Data in a Computer Program for Understanding Natural Language”, MIT AI Technical Report 235.
  3. Gruber, T. (2008). Liu, Ling; Özsu, M. Tamer, eds. Ontology. Encyclopedia of Database Systems. Springer-Verlag. ISBN 978-0-387-49616-0.
  4. Juang, B. H.; Rabiner, Lawrence R. (2004) “Automatic speech recognition–a brief history of the technology development”(PDF): pg. 6.
  5. “History of Speech Recognition” (2015). Dragon Medical Transcription. Archived from the original on 13 August 2015.
  6. Rabiner, Lawrence. “First Hand: The Hidden Markov Model”. IEEE Global History Network. Also, see http://ethw.org/First-Hand:The_Hidden_Markov_Model
  7. Papert, Seymour (July 1966). “The Summer Vision Project”. MIT AI Memos (1959 – 2004).
  8. Szeliski, Richard (September 2010). Computer Vision: Algorithms and Applications. Springer Science & Business Media. pp. 10–16. ISBN 978-1-84882-935-0.
  9. Weizenbaum, Joseph (1976), “Computer Power and Human Reason: From Judgment to Calculation”. New York: W.H. Freeman and Company. pp. 2,3,6,182,189. ISBN 0-7167-0464-1. Also see, “Alan Turing at 100”. Harvard Gazette. Retrieved 2016-02-22.
  10. Güzeldere, Güven; Franchi, Stefano (July 1995) “Dialogues with Colorful Personalities of Early AI”. Stanford Humanities Review, SEHR, volume 4, issue 2: “Constructions of the Mind,” Stanford University.
  11. Shimon, Nof Y. (1999). Handbook of Industrial Robotics (2nd ed.). John Wiley & Sons. pp. 3 – 5. ISBN 0-471-17783-0.
  12. http://www.humanoid.waseda.ac.jp/booklet/kato_2-j.html
  13. Macias, Nathanael; Wen, John, (2014), “Vision Guided Robotic Block Stacking,” published in: 2014 IEEE/RSJ International Conference on Intelligent Robots and Systems, 14-18 Sept. 2014, ISBN: 978-1-4799-6934-0. DOI: 10.1109/IROS.2014.6942647
  14. http://www.nytimes.com/1982/09/14/business/cray-cuts-price.html
  15. Moravec, Hans (1976), “The Role of Raw Power in Intelligence”.
  16. http://www.umsl.edu/~siegelj/information_theory/projects/Bajramovic/www.umsl.edu/_abdcf/Cs4890/link1.html
  17. https://countryeconomy.com/gdp?year=1974
  18. Searle, John (1980), “Minds, Brains and Programs”, Behavioral and Brain Sciences, 3 (3): 417–457, doi:10.1017/S0140525X00005756, retrieved May 13, 2009.
  19. Minsky, Marvin; Seymour, Papert (1969), Perceptrons: An Introduction to Computational Geometry, The MIT Press
  20. Crevier, Daniel (1993). AI: The Tumultuous Search for Artificial Intelligence. New York, NY: Basic Books. ISBN 0-465-02997-3.
  21. Russell, Stuart; Norvig, Peter (2003). Artificial Intelligence: A Modern Approach. London, England: Pearson Education. ISBN 0-137-90395-2.
  22. McCorduck, Pamela (2004), Machines Who Think (2nd ed.), Natick, MA: A. K. Peters, Ltd., ISBN 1-56881-205-1, OCLC 52197627.
  23. http://www.nytimes.com/1977/08/27/archives/man-and-machine-match-minds-at-mit-5th-conference-on-artificial.html
  24. http://www.nytimes.com/2005/10/13/business/worldbusiness/ai-reemerges-from-a-funding-desert.html
  25. Bryson, A. E.; Yu-Chi, Ho (January 1975). Applied Optimal Control: Optimization, Estimation and Control. CRC Press. ISBN 978-0-89116-228-5.
  26. Linnainmaa, Seppo (1970). The representation of the cumulative rounding error of an algorithm as a Taylor expansion of the local rounding errors. Master’s Thesis (in Finnish), Univ. Helsinki, 6-7.
  27. Werbos, Paul (1974). “Beyond Regression: New Tools for Prediction and Analysis in the Behavioral Sciences”. Harvard University. Retrieved 12 June 2017.
  28. Werbos, Paul (1982). “Applications of advances in nonlinear sensitivity analysis”. System modeling and optimization (PDF). Springer. pp. 762–770.
  29. Rumelhart, D.E; Hinton, G. E.; Williams, R. J. (1986), “Learning representations by back-propagating errors,” Nature 323, pp. 533-536, October 9, 1986.
  30. Kevin, Guerney (2002). An Introduction to Neural Networks. Routledge. ISBN 1857285034.
  31. Sathasivam, Saratha (2008), “Logic Learning in Hopfield Networks”. arXiv:0804.4075.
  32. Shiller, Robert (2005). “Definition of Irrational Exuberance”.www.irrationalexuberance.com Princeton University Press. Retrieved 23 August 2014.
  33. https://www.openphilanthropy.org/focus/global-catastrophic-risks/potential-risks-advanced-artificial-intelligence/what-should-we-learn-past-ai-forecasts
  34. Buchanan, Bruce G. (2005), “A (Very) Brief History of Artificial Intelligence” (PDF), AI Magazine, pp. 53–60, retrieved 30 August 2007
  35. Little, W. A. (1974). The existence of persistent states in the brain. Math. Biosci., 19, 101-120.
  36. Aggarwal, A. (January 2018), “Genesis of AI: The First Hype Cycle,” available at www.scryanalytics.com/articles
  37. Aggarwal, A. (January 2018), “Resurgence of Artificial Intelligence During 1983-2010,” available at www.scryanalytics.com/articles

Fique conectado

Mais Atualizações

A importância do Rastreamento Automático de Informações

Os BIs (Business Intelligence, criados em 1997 ou os self-service BI criados há mais de 10 anos, são focados em gerar relatórios, gráficos e dashboards, e num primeiro momento é muito rápido se obter os principais KPIs e se ter uma visão geral dos grandes números.

O melhor da inovação em AI

© 2021 InnovBest. porZ.

Suporte aos Clientes

Alameda Rio Negro, 1030 – 23º andar – Alphaville, Barueri – SP – 06454-000

Segunda a Sexta – 8:30 – 18:00