O PRIMEIRO CICLO ( PARTE 1 )
RESUMO
Cada década tem seus jargões tecnológicos: tínhamos computadores pessoais na década de 1980; Internet e rede mundial na década de 1990; Smartphones e redes sociais na 1ª década dos anos 2000; e Inteligência Artificial (AI) e Machine Learning desde 2011, no entanto, AI – Artificial Intelligence foi criada há vários anos.
Este é o primeiro de uma série de 10 blogs em que iremos detalhar a história da Inteligência Artificial
- Os 2 primeiros blogs relatam a Origem de AI e o primeiro ciclo durante 1950 e 1982
- No 3º e 4º blogs discutiremos o ressurgimento de AI e as conquistas de 1983 a 2010
- No 5º e 6º blogs discutiremos como os sistemas de AI já rivalizam com humanos
- No 7º e 8º blogs discutiremos o atual ciclo de AI ( Inteligência Artificial )
- No 9º e 10º blogs discutiremos o que podemos prever para cérebros, mentes e máquinas
LINHA DO TEMPO DE AI:
INTRODUÇÃO
Embora a AI ( Artificial Intelligence ) ou Inteligência Artificial ( AI ) esteja entre os tópicos mais populares da atualidade, um fato comumente esquecido é que ela nasceu em 1950 e passou por seu 1º ciclo entre 1956 e 1982.
O objetivo deste blog é destacar algumas das conquistas do boom ocorrido durante a fase de expansão deste ciclo e explicar o que levou à fase de queda.
As lições a serem aprendidas com esse ciclo inicial não devem ser negligenciadas, visto que seus sucessos formaram os precursores dos algoritmos de machine learning usados hoje e suas deficiências indicaram os perigos do entusiasmo excessivo em campos promissores de pesquisa e desenvolvimento.
A PRIMEIRA QUESTÃO
Embora os primeiros computadores tenham sido desenvolvidos durante a Segunda Guerra Mundial [ referências bibliográficas 1,2 ], o que parecia realmente estimular o surgimento de AI foi uma questão proposta por Alan Turing em 1950 [3]:
Pode uma máquina imitar a inteligência humana?
Em seu artigo base, “Computing Machinery and Intelligence”, ele formulou um jogo, chamado jogo de imitação, no qual um ser humano, um computador e um interrogador (humano) estão em três salas diferentes.
O objetivo do interrogador é distinguir o humano do computador, fazendo-lhes uma série de perguntas e lendo suas respostas datilografadas; o objetivo do computador é convencer o interrogador de que é o humano.
Em uma entrevista à BBC de 1952, Alan Turing sugeriu que, no ano 2000, o interrogador médio teria menos de 70% de chance de identificar corretamente o humano após uma sessão de cinco minutos [4].
Turing não foi o único a perguntar se uma máquina poderia simular vida inteligente.
Em 1951, Marvin Minsky, um estudante de pós-graduação inspirado por pesquisas anteriores da neurociência indicando que o cérebro era composto de uma rede elétrica de neurônios disparando com pulsos de tudo ou nada, tentou modelar computacionalmente o comportamento de um rato.
Em colaboração com o aluno de graduação em física Dean Edmonds, ele construiu a primeira máquina de rede neural chamada Stochastic Neural Analogy Reinforcement Computer (SNARC) [5].
Embora primitivo (consistindo em cerca de 300 tubos de válvulas e motores), ele teve sucesso em modelar o comportamento de um rato em um pequeno labirinto em busca de comida [5].
A noção de que seria possível criar uma máquina inteligente era realmente atraente e levou a vários desenvolvimentos subsequentes.
Por exemplo, Arthur Samuel construiu um programa de jogo de damas em 1952 que foi o primeiro programa de autoaprendizagem do mundo [15].
Mais tarde, em 1955, Newell, Simon e Shaw construíram o Logic Theorist, que foi o primeiro programa a imitar as habilidades de resolução de problemas de um ser humano e acabaria por provar 38 dos primeiros 52 teoremas em Whitehead e Russell’s Principia Mathematica [6].
O INÍCIO DA FASE DE CRESCIMENTO
Inspirado por esses sucessos iniciais, o jovem professor de Dartmouth, John McCarthy, organizou uma conferência em 1956 para reunir 20 pesquisadores pioneiros e “explorar maneiras de fazer uma máquina que pudesse raciocinar como um humano, fosse capaz de pensamento abstrato, resolução de problemas e autoaperfeiçoamento” [7].
Foi em sua proposta de 1955 para esta conferência que o termo “Artificial Intelligence” foi cunhado [7,40,41,42] e foi nesta conferência que a AI ganhou sua visão, missão e propaganda.
Os pesquisadores logo começaram a fazer afirmações audaciosas sobre a incipiência de uma poderosa máquina de inteligência, e muitos previram que uma máquina tão inteligente quanto um ser humano existiria em não mais que uma geração [40, 41, 42], por exemplo:
Em 1958, Simon e Newell disseram, “dentro de dez anos um computador digital será o campeão mundial de xadrez” e, “dentro de dez anos um computador digital irá descobrir e provar um importante novo teorema matemático” [8].
Em 1961, Minsky escreveu, “dentro de nossas máquinas vitalícias podem nos superar em inteligência geral”, [9] e em 1967 ele reiterou, “dentro de uma geração, estou convencido, poucos compartimentos do intelecto permanecerão fora do reino da máquina – o problema de criar ‘inteligência artificial’ será substancialmente resolvido ”[10, 11, 12].
AI até havia chamado a atenção de Hollywood.
Em 1968, Arthur Clarke e Stanley Kubrick produziram o filme 2001: Uma Odisseia no Espaço, cujo antagonista era um computador artificialmente inteligente, HAL 9000 exibindo criatividade, senso de humor e a capacidade de tramar contra qualquer um que ameaçasse sua sobrevivência.
Isso se baseava na crença de Turing, Minsky, McCarthy e muitos outros de que tal máquina existiria em 2000; na verdade, Minsky serviu como conselheiro para este filme e um de seus personagens, Victor Kaminski, foi nomeado em sua homenagem.
NASCEM OS SUBCAMPOS DE AI
Entre 1956 e 1982, o entusiasmo inabalável de AI levou a um trabalho que deu origem a vários subcampos de AI que são explicados abaixo.
Muito desse trabalho levou aos primeiros protótipos para a teoria moderna de AI.
Inteligência Artificial / Robótica
Neste Blog vamos falar das 3 primeiras categorias de AI acima, e no blog seguinte vamos falar das 5 categorias de AI restantes, bem como o recesso de AI.
SISTEMAS BASEADOS EM REGRAS
Os sistemas especialistas baseados em regras tentam resolver problemas complexos implementando uma série de regras “se-então-senão”.
Uma vantagem de tais sistemas é que suas instruções (o que o programa deve fazer quando vê “if” ou “else”) são flexíveis e podem ser modificadas pelo codificador, pelo usuário ou pelo próprio programa.
Esses sistemas especialistas foram criados e usados na década de 1970 por Feigenbaum e seus colegas [13], e muitos deles constituem os blocos base para os sistemas de AI de hoje.
MACHINE LEARNING – APRENDIZADO DE MÁQUINA
Machine Learning foi cunhado por Arthur Samuel em 1959 como “o campo de estudo que dá aos computadores a capacidade de aprender sem serem explicitamente programados” [14].
O aprendizado de máquina é um campo vasto e sua explicação detalhada está além do escopo deste artigo.
O segundo blog desta série – veja Resumo na primeira página e – discutirá brevemente seus subcampos e aplicações[57].
A seguir, damos um exemplo de programa de aprendizado de máquina, conhecido como rede perceptron.
REDES NEURAIS DE CAMADA ÚNICA E MULTICAMADAS
Inspirado pelo trabalho de McCulloch e Pitts em 1943 e de Hebb em 1949 [15,16], Frank Rosenblatt em 1958 no Cornell Aeronautical Laboratory, introduziu a rede perceptron como um modelo artificial de neurônios em comunicação, que são conhecidas como redes neurais [17].
Este modelo é mostrado na Figura 5 e pode ser descrito resumidamente a seguir.
Uma camada de vértices, onde as variáveis de entrada são inseridas, é conectada a uma camada oculta de vértices ( também chamada de perceptrons – que é uma rede neural ), que por sua vez é conectada a uma camada de saída de perceptrons.
Um sinal proveniente de uma conexão de um vértice de entrada para um perceptron na camada oculta é calibrado por um “peso” associado a essa conexão, e esse peso é atribuído durante um “processo de aprendizagem”.
Os sinais dos perceptrons da camada oculta para os perceptrons da camada de saída são calibrados de maneira análoga.
Como um neurônio humano, um perceptron “dispara” se o peso total de todos os sinais recebidos exceder um potencial especificado, no entanto, ao contrário dos humanos, os sinais neste modelo são transmitidos apenas para a camada de saída, razão pela qual essas redes são frequentemente chamadas de “feed-forward”.
Redes Neurais com apenas uma camada oculta de perceptrons ( ou seja, com duas camadas de conexões de borda ponderada ) mais tarde se tornaram conhecidas como redes neurais artificiais “rasas”.
Embora as redes rasas fossem limitadas em potência, Rosenblatt conseguiu criar uma rede neural de uma camada, que ele chamou de Mark 1, que era capaz de reconhecer imagens básicas [17].
Hoje, a empolgação gira em torno das redes neurais “profundas” (duas ou mais camadas ocultas), que também foram estudadas na década de 1960. De fato, o primeiro algoritmo de aprendizado geral para redes profundas remonta ao trabalho de Ivakhnenko e Lapa em 1965 [18,19].
Redes de até oito camadas foram consideradas por Ivakhnenko em 1971, quando ele também forneceu uma técnica para treiná-las [20].
CONCLUSÃO DESTE BLOG
As características definidoras de um ciclo são uma fase de boom, quando pesquisadores, desenvolvedores e investidores se tornam excessivamente otimistas e ocorre um enorme crescimento, e uma fase de colapso, quando os investimentos são retirados e o crescimento reduz substancialmente.
Pela história apresentada neste artigo, podemos ver que a AI passou por esse ciclo durante 1956 e 1982.
Nascido da visão de Turing e Minsky de que uma máquina poderia imitar a vida inteligente, a AI recebeu seu nome, missão e campanha publicitária da conferência organizada por McCarthy na Dartmouth University em 1956.
Isso marcou o início da fase de expansão do ciclo de propaganda de AI.
Entre 1956 e 1973, muitos avanços teóricos e práticos penetrantes foram descobertos no campo da AI, incluindo sistemas baseados em regras; redes neurais rasas e profundas; processamento de linguagem natural; processamento de fala; e reconhecimento de imagem.
Vamos falar mais sobre isso no próximo blog.
Informações adicionais sobre a história da AI podem ser encontradas em:
- McCorduck, Pamela (2004), Machines Who Think (2nd ed.), Natick, MA: A. K. Peters, Ltd. ISBN 1-56881-205-1, OCLC 52197627.
- Crevier Daniel (1993). AI: The Tumultuous Search for Artificial Intelligence. New York, NY: Basic Books. ISBN 0-465-02997-3.
- Russell Stuart; Norvig, Peter (2003). Artificial Intelligence: A Modern Approach. London, England: Pearson Education. ISBN 0-137-90395-2.
BIBLIOGRAFIA CITADA NESTE BLOG
Fonte: artigo do Dr. Alok Aggarwal publicado na Analytics Insight Magazine
- Copeland, Jack B., ed. (2006). Colossus: The Secrets of Bletchley Park’s Codebreaking Computers. Oxford University Press. ISBN 978-0-19-284055-4.
- Rojas, R.; Darius, F.; Göktekin, C.; Heyne, G. (2005). “The reconstruction of Konrad Zuse’s Z3”. IEEE Annals of the History of Computing. 27 (3): 23–32. doi:10.1109/mahc.2005.48.
- Turing, Alan (October 1950), “Computing Machinery and Intelligence”, Mind, LIX (236): 433–460, ISSN 0026-4423, doi:10.1093/mind/LIX.236.433, retrieved 2008-08-18.
- Sharkey, Noel (2012), Alan Turing: The experiment that shaped artificial intelligence,
- http://www.bbc.com/news/technology-18475646.
- http://cyberneticzoo.com/mazesolvers/1951-maze-solver-minsky-edmonds-american
- http://shelf1.library.cmu.edu/IMLS/MindModels/logictheorymachine.pdf
- McCarthy, John; Minsky, Marvin; Rochester, Nathan; Shannon, Claude (31 August 1955), A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence.
- Simon & Newell 1958, p. 7−8 quoted in Crevier 1993, p. 108; see reference [40]. See also Russell & Norvig 2003, p. 21; see reference [41], p. 21.
- Greenberger, Martin (1962), p. 118; https://mitpress.mit.edu/books/computers-and-world-future
- Minsky, Marvin (1967), “Computation: finite and infinite machines,” Prentice-Hall, Inc. page 2. ISBN:0-13-165563-9.
- “Scientist on the Set: An Interview with Marvin Minsky,” Archived November 14, 2007, at the Wayback Machine.
- “AI pioneer Marvin Minsky dies aged 88”. BBC News. 26 January 2016.
- Leondes, Cornelius T. (2002). Expert systems: the technology of knowledge management and decision making for the 21st century. pp. 1–22. ISBN 978-0-12-443880-4.
- Samuel, Arthur L. (July 1959), “Some studies in machine learning using the game of checkers”, IBM Journal of Research and Development, 3 (3): 210–219, doi:10.1147/rd.33.0210.
- McCulloch, W. and Pitts, W. (1943). A logical calculus of the ideas immanent in nervous activity. Bulletin of Mathematical Biophysics, 5:115–133.
- Hebb, D.O. (1949). The Organization of Behavior. New York: Wiley & Sons.
- Rosenblatt, Frank (1957), The Perceptron–a perceiving and recognizing automaton. Report 85-460-1, Cornell Aeronautical Laboratory.
- Ivakhnenko, A. G. and Lapa, V. G. (1965). Cybernetic Predicting Devices. CCM Information Corporation.
- Ivakhnenko, A. G., Lapa, V. G., and McDonough, R. N. (1967). Cybernetics and forecasting techniques. American Elsevier, NY.
- Ivakhnenko, A. G. (1971). Polynomial theory of complex systems. IEEE Transactions on Systems, Man and Cybernetics, (4):364–378.