Segundo alguns AGers, o PODER FLOODER se manifesta do âmago de nosso ser. Alguns dizem ser uma força, uma energia latente que se concentra nas palmas das mãos. Outros, que seria uma energia misteriosa, um poder oculto que se alimentaria de nossas emoções mais sombrias. A verdade é que, muitos dizem conhecer essa força, mas poucos realmente chegaram a manifesta-la.

14 de Novembro, 2019, 18:26:46

Autor Tópico: Stephen Hawking: inteligência artificial pode ser o “maior erro na história"  (Lida 616 vezes)

0 Membros e 1 Visitante estão vendo este tópico.

Stephen Hawking: inteligência artificial pode ser o “maior erro na história"
: 2 de Julho, 2015, 23:29:12
0
0
Stephen Hawking diz que a inteligência artificial pode ser o “maior erro na história”

Por: George Dvorsky
(...)
Hawking, junto com o cientista da computação Stuart Russell e os físicos Max Tegmark e Frank Wilczek, diz que os potenciais benefícios podem ser imensos, mas não podemos prever o que pode ser conseguido quando a inteligência artificial estiver bem desenvolvida – nem o que pode vir de bom nisso, nem o que pode acontecer de ruim.

Escrevendo para a The Independent, o cientista alerta:

Olhando para o futuro, não há limites fundamentais para o que pode ser alcançado: não há nenhuma lei física impedindo partículas de se organizarem de forma que executem cálculos ainda mais avançados do que os arranjos de partículas em cérebros humanos. Uma transição explosiva é possível, apesar de talvez ser um pouco diferente de um filme: como Irving Good percebeu em 1965, máquinas com inteligência sobre-humana podem repetidamente melhorar o próprio design, ativando o que Vernor Vinge chamou de “singularidade” e o personagem do filme de Johnny Depp chama de “transcendência”.

Alguém pode pensar que tal tecnologia pode ser mais inteligente que mercados financeiros, superar pesquisadores humanos, ficar além da manipulação de líderes humanos e desenvolver armas que nem conseguimos entender. Considerando que o impacto de curto prazo da AI depende de quem a controla, o impacto a longo prazo depende se ela pode ser de alguma forma controlada.

Então, encarando possíveis futuros de benefícios e riscos incalculáveis, os especialistas certamente vão fazer tudo possível para garantir o melhor resultado, certo? Errado. Se uma civilização alienígena superior nos envia uma mensagem “Estamos chegando dentro de algumas décadas”, nós responderíamos apenas “Ok, ligue quando estiverem por aqui – vamos deixar as luzes acesas”? Provavelmente não – mas é mais ou menos isso o que está acontecendo com a inteligência artificial. Apesar de estarmos prestes a encarar o que potencialmente será a melhor ou pior coisa da história da humanidade, pouca pesquisa séria está sendo feita sobre essas questões fora de instituições sem fins lucrativos como o Centro de Estudos de Risco Existencial em Cambridge, o Instituto do Futuro da Humanidade, o Instituto de Pesquisa de Inteligência de Máquina, e o Instituto de Vida Futura. Todos devíamos nos perguntar o que podemos fazer para melhorar as chances de colher os benefícios e evitar os riscos.
Texto original de Hawking (em inglês), não conferi a tradução toda mas a idéia geral é essa mesmo.
Matéria em: http://gizmodo.uol.com.br/stephen-hawking-inteligencia-artificial/
________________________________

Nada mais justo diante da estréia do Exterminador do Futuro, que levantar aqui a típica discussão sobre a Inteligência Artificial.

Sempre leio por intermédio de algum colega sobre avanços do desenvolvimento nessa área, e as perguntas que elas suscitam, em geral, são essas:

Admitindo que possamos criar algo com potencial pra nos superar e muito em inteligência, não seria muita presunção achar que poderíamos controlar isso sem nenhum risco?

Presumindo que o risco existiria, a necessidade de conseguir respostas que não podemos obter sozinhos valeria realmente a pena?

Os colegas costumam compartilhar nas redes sociais as notícias sobre IA com a hashtag #SkynetFeelings. O que acham? Coisa de maluco, exagero, risco distante, risco real?

Li sobre a limitação física pra esse avanço todo, mas enfim, acho que vale o debate.

Levanto a discussão sem qualquer conhecimento científico, só pra constar, mas coloquei nessa área porque pra mim isso é sério rsrs

  • Anael Limelight Feminino

  • "I'm one with the Force, and the Force is one with me!"
  • Semideus
  • Viúva do AT
0
0
A questão principal é a empatia.

Máquinas não desenvolveriam sentimentos.

Seriam literalmente psicopatas.

Sem empatia a noção de certo x errado destas máquinas se reduziriam a probabilidades matemáticas.

E a noção de razoabilidade ia para o saco.

Mas tenho ca minhas dúvidas se nossa tecnologia está tão próxima de algo grandioso assim...


Kasdrael, minha Nana
Anjinha da Guarda e Sakura do Ruddy ^^~

0
0
Nee a questão nem é de proximidade...tb acho que não chegaremos lá tão cedo mas gostei da analogia dele:

Se uma civilização alienígena superior nos envia uma mensagem “Estamos chegando dentro de algumas décadas”, nós responderíamos apenas “Ok, ligue quando estiverem por aqui – vamos deixar as luzes acesas”? Provavelmente não – mas é mais ou menos isso o que está acontecendo com a inteligência artificial.

Independente de estarmos a um ano ou a uma centena de anos, a pesquisa está progredindo e é preciso pesquisar também as implicações. Não é algo que dê pra pensar só quando acontecer...

0
0
Segundo Steven Pinker, ele diria que estamos ainda muito longe disso (Inteligência como a nossa), ou no mínimo de milhares de anos se ainda persistirmos nessa sistema de pensamento atual, o próprio é psicólogo, da área de ciências cognitivas e psicologia evolucionista, levanta estudos sobre estas áreas que também envolvem a inteligência. Estou lendo o livro dele, Como a Mente Funciona, e é muito interessante, como ele mostra tamanha complexidade, diz que se juntarmos todas as máquinas possíveis  atualmente chegaríamos no máximo de um cérebro de uma mosca. Ele é categórico, levanta muitos questionamentos e tenta explicar seguindo uma linha evolucionista, e indaga sobre a visão da qual temos sobre inteligência hoje, e entre os cognitivistas o que mais usam são termos e referências de cunho computacionais. Segue um vídeo dele de entrada, um resumão que fez:

Pinker


Tenho lido algumas coisas sobre inteligência animal, percebi que não somos tão diferenciados assim, estamos começando a perceber cada vez mais o tamanho da complexidade, o que acho divertido, pois é muita coisa.

Em notícia publicada no jornal The New York Times, relata-se o caso de que alguns chimpanzés, que são animais que não sabem nadar, morreram afogados em piscinas de um zoológico tentando salvar os outros de sua espécie. Alguns macacos rhesus, por sua vez, passaram fome por vários dias, uma vez que só podiam obter comida puxando uma corrente que causava choque elétrico a um companheiro, o que mostra um padrão emocional de exceção e não necessariamente de regra e que também pouco tem a ver com pura cognição, mas sim com tipos de valores que mesmo nos bípedes nunca foi um consenso quando se compara as temporalidades e espacialidades em que estes seres tenham vivido e existido em grupos; também não existe na natureza nada que comprove que este padrão seja a regra ou mesmo que seja algo "superior" a outros padrões verificados. Ambos têm capacidades de raciocínio diferentes e muito particulares.


E estudos atuais levantam que as baratas tem uma inteligência coletiva, o que ultrapassa apenas de um construto fisiológico, e por mais que avançamos, dependemos muito das observação e experimentos ainda feito com animais, como Pinker diria, se a roda fosse um design de perfeição, animais teriam rodas. Os pés, patas ou mãos, etc... Nos fazem movem em diversos ambientes diferentes com condições diferentes, só a morfologia e o estado é uma questão irredutível para as máquinas, que ainda precisam processar o seu ambiente ao redor. O que acho é que as máquinas na verdade tendem formas humanas, de como vemos o mundo, ou seja, será uma construção de semelhança, nós ainda não conhecemos a nossa natureza com tamanha certeza, ou será possível conhecer por trás o motor que faz conhecer as coisas?

Baratas robóticas


-------------------------------

Como gosto de ficção, tem uma que combine especialmente com isso, muito antes mesmo de Matrix, e que levantas sobre essas questões: Battlestar Galática, e seu derivado Caprica (Este conta uma explicação para a origem da Inteligência em Máquinas, que envolve desde assuntos como crenças e por que máquinas poderiam se voltar contra nós, baseado num contexto atual como redes de computadores, realidade virtual, etc...). Vale a pena conferir:

Batlestar Galática e Caprica


Bem, adoro essa questão o qual se encontra no seriado Stargate SG1, quando se deparam com replicadores, ou qual a reprodução a qualquer custo e modificação de si mesmo, é o suficiente para criar-se um sistema que podem ter consequências caóticas. Bem, mas acho sinceramente, quem ameaça a si mesmo, é o próprio ser humano, veja que os avanços estão sempre com interesses bélicos e de poder, de modo geral, o que vemos a contribuição desses campos para melhoria de diversos campos na vida do ser humano? Suspeito muito dos interesses e os fins, mas acho que ainda estamos longe de chegar em tal nível, e ainda acredito que os comandos não passam nada mais do que um controle humano para submeter a outros humanos, afinal, qual é a espécie que poderia levar o fim em si mesma e outras....

0
0

Bem, adoro essa questão o qual se encontra no seriado Stargate SG1, quando se deparam com replicadores, ou qual a reprodução a qualquer custo e modificação de si mesmo, é o suficiente para criar-se um sistema que podem ter consequências caóticas. Bem, mas acho sinceramente, quem ameaça a si mesmo, é o próprio ser humano, veja que os avanços estão sempre com interesses bélicos e de poder, de modo geral, o que vemos a contribuição desses campos para melhoria de diversos campos na vida do ser humano? Suspeito muito dos interesses e os fins, mas acho que ainda estamos longe de chegar em tal nível, e ainda acredito que os comandos não passam nada mais do que um controle humano para submeter a outros humanos, afinal, qual é a espécie que poderia levar o fim em si mesma e outras....

Vou te confessar que não li tudo, keiki porque honestamente meu cérebro nem ta funcionando direito mais uahuauahua mas sim, essa já é outra questão, mesmo que estejamos longe do potencial para inteligência artificial, de fato existem muitos outros riscos antes disso, porque o objetivo final é sempre quem detém o poder tecnológico subjugar quem não tem.

Como eu disse, a questão tecnológica em si não eu costumo estudar mas considero salutar pensar nas consequências, por menor que seja a probabilidade disso acontecer, e acho que esse é o valor do texto do Hawking. Várias coisas no "avanço" da humanidade foram criadas sem qualquer preocupação com os resultados, mas um certo controle pôde ser feito a posteriori. Acho prudente pesquisar soluções prévias, nesse caso específico.

1
0
Eu tenho um medo disso viu, inteligencia artificial não é brincadeira mais. Eu li um livro sobre isso, que se chama "Our final invention " que fala sobre inteligencia artificil e as mudanças que podem acontecer no mundo quando realmente acontecer uma singularidade ( uma IA que tem consciencia de si própria e do mundo ) e as projeções não são favoráveis pra gente não...

O lance é que o estudo em cima dessas IA já é explorado a muito tempo, e nos não estamos tão distantes assim de uma singularidade quanto pode parecer. Isso pode acontecer dentro de poucos anos inclusive.
O lance é rezar para que seja um jarvis e não um ultron


clique neste rodethos

0
0
Eu tenho um medo disso viu, inteligencia artificial não é brincadeira mais. Eu li um livro sobre isso, que se chama "Our final invention " que fala sobre inteligencia artificil e as mudanças que podem acontecer no mundo quando realmente acontecer uma singularidade ( uma IA que tem consciencia de si própria e do mundo ) e as projeções não são favoráveis pra gente não...

O lance é que o estudo em cima dessas IA já é explorado a muito tempo, e nos não estamos tão distantes assim de uma singularidade quanto pode parecer. Isso pode acontecer dentro de poucos anos inclusive.
O lance é rezar para que seja um jarvis e não um ultron

Sobre as limitações, o que levo em consideração séria é a questão da limitação de hardware pra suportar algo dessa capacidade, que eu li por alto, mas não deixa de ser preocupante. Só o fato disso ser uma possibilidade já deveria ser suficiente pra motivar a mesma intensidade de pesquisas sobre mecanismos de controles e etc.

Vários cientistas defendem que estamos a décadas disso acontecer, mas considerando que não sabemos como isso vai ser alcançado (apenas supomos pelo caminho e estado das pesquisas), podemos afirmar categoricamente que estamos tão longe? Do meu ponto de vista leigo, os cientistas baseiam suas previsões no estado atual das pesquisas e ta tecnologia na sua curva de desenvolvimento normal, e não podem prever nada alheio a isso, mas não deixa de ser possível.

Torço aqui pro facebook e whatsapp darem suas contribuições em atrasarem mais uns séculos desse progresso científico 

0
0
Nos temos que pensar tambem que, os saltos da tecnologia estão cada vez maiores. Se você pensar onde estava a tecnologia a 15 anos atrás, e onde está hoje, e a velocidade com que mais avanços aparecem dá pra se assustar um tiquinho.


Torço aqui pro facebook e whatsapp darem suas contribuições em atrasarem mais uns séculos desse progresso científico 


ahahahahahaa, eu tenho é medo disso, porque se um IA superior entrar no facebook e ficar 20 minutos pesquisando nos feeds de noticia, as máquinas vão decidir em colocar um fim na raça humana  na mesma hora


clique neste rodethos

0
0
Acho que devíamos questionar sobre o ser humano se tornando cada vez mais máquinas, e máquinas cada vez mais humanas... E ainda pouco questionamos sobre o hibridismo ainda... E além de muitas outras questões:

http://g1.globo.com/jornal-hoje/noticia/2015/05/medico-diz-ser-possivel-realizar-1-transplante-de-cabeca-em-dois-anos.html

Embora a ficção possa projetar possibilidades futuras, não devemos também dar ônus que a ciência saiba responder tudo, o problema é justamente esse, se considerar que vírus ou bactérias são seres inteligentes, podemos conversar que a natureza por si só tem uma inteligência, mas máquinas teriam objetivos? Mas se tais mantiverem mecanismo fixos de comportamentos, como poderíamos julgar tais como inteligentes, sendo que ainda precisa de um operador. (Ou seja o operador é de causa humana,  mesmo em programações). Há não ser que entremos em causas de sistemas, que por não sei onde pode haver falhas, e se não ser cético, podemos acreditar em muitas possibilidades variáveis, não somente pelo pessimismo e movido ao sentimento escatológico de riscar a humanidade. 

Embora Hawks seja um gênio, entre outros da mesma área de exatas, ainda assim projetam apenas especulações, e por que dar crédito somente a estes? Se realmente as previsões fossem tão determinantes, nem teríamos feito e usado bombas atômicas, nem cometeríamos falhas das mesmas, o que coloca realmente o que é inteligência. Enquanto que muitos taxados de primitivos, ou tribalistas, entre outros, têm se notado que estes estão inseridos numa ordem de lógicas diferentes, e poderia se julgar até mais inteligentes. Então o termo por si só poderia ser um equívoco, mas agora mais recententemente, vem se falando de diversos tipos de inteligências. Máquinas teriam motivações, ou se trata de um desejo inconsciente ao qual ansiamos para que isso aconteça?

0
0
Sobre os humanos se tornarem cada vez mais parecido com máquinas, eu acho que não é por aí. O lance é que nos estamos cada vez mais dependentes das máquinas. A nossa sociedade não funciona mais sem elas, e elas estão tão integradas que fica dificl de se desvenciliar. Quem não fica sem lugar em casa quanto acaba a eletricidade? Hoje em dia tem muita gente que já fica doido só do celular ficar sem bateria.


Embora a ficção possa projetar possibilidades futuras, não devemos também dar ônus que a ciência saiba responder tudo, o problema é justamente esse, se considerar que vírus ou bactérias são seres inteligentes, podemos conversar que a natureza por si só tem uma inteligência, mas máquinas teriam objetivos?

Uma grande parte do medo dessas IA superiores é justamente essa questão dos objetivo.
Uma Inteligencia artificial que foi programa pra saber jogar xadrez. Vamos dizer que ela foi programada pra jogar quantas partidas forem necessárias e, depois disso, se não tiver nenhum jogador pra jogar contra ela, é programada pra se desligar.

Até aí tudo bem. Agora vamos pensar que dentro dessa programação da máquina, tenha tido alguma anomalia que cause uma singularidade e ela começa a ter consciencia de si mesma.

Na programação original, que é jogar xadrez [ e é o direcionamento principal dessa IA ], o objetivo dela é jogar as partidas o melhor possivel. Tendo consciencia de si mesma, a máquina vai buscar novas possibilidades para continuar jogando o melhor possivel.

 Vai chegar uma hora que ela vai se dar conta de que, ao inves de se desligar, para aumentar a produtividade e a qualidade dos jogos, seria mais vantajoso se ela continuasse a pesquisar novos movimentos e reações, então ela provavelmente tomaria providencias para que ela não precisasse se preocupar em ser desligada. Então, não seria mais vantajoso se ela fizesse uma cópia do programa principal, já que se acontecer alguma coisa que poss vir a danificar o computador principal ou o programa principal, ela teria como continuar trabalhando.

Então, uma hora, depois de mil pesquisas a IA se dá conta de que o código dela é bacana, as que pode melhorar, e ela é mais inteligente que quem a programou inicialmente, então, vale a pena reescrever essa programação aí para aumentar a produtividade. No programa 2.0, ela começa a perceber que se ela for desligada, vai perder toda o esforço e empenho que ela vem colocando para pode jogar jogos perfeitos de xadrez e decide que uma cópia só é muito arriscada, decide fazer mais uns back ups. Mas pra ter tantas cópias, é preciso mais hardware e mais espaço físico pra se alojar, então ela começa a ir atrás de recursos pra se manter, pra manter suas cópias e, agora que ela já está mais inteligente, reescrever o código para KASPAROV 3.0 , um código melhorado, mais rápido , inteligente, e com nvoos objetivos, já que a coleta de recursos agora é uma realidade. E assim por diante

Uma hora, a IA vai ter outros objetivos de produtividade, mais anergia vai ser necessária, mais cópias, mais espaço, novos uptades no código. issao até chegar um ponto em que, depois de esgotar todos os recursos que estavam sendo utilizados, outros tipos de recursos seriam explorados. Nessa brincadeira, uma hora ou outra, as máquinas iriam perceber que os humanos são dispensáveis, e pode ser consumidos como recursos, ou entção que , pelo fato de destruirem o planeta desse jeito, os humanos são uma ameaça à captação de recursos.

 Claro, é tudo especulação, mas ainda assim eu acho que muita coisa faz bastante sentido.

Eu poso estar parecendo um daqueles malucos paranoicos, mas , vai que rola tudo isso, não sei não viu


clique neste rodethos

0
0
Acho que devíamos questionar sobre o ser humano se tornando cada vez mais máquinas, e máquinas cada vez mais humanas... E ainda pouco questionamos sobre o hibridismo ainda... E além de muitas outras questões:

Sim, é uma questão a analisar também.

Embora Hawks seja um gênio, entre outros da mesma área de exatas, ainda assim projetam apenas especulações, e por que dar crédito somente a estes? Se realmente as previsões fossem tão determinantes, nem teríamos feito e usado bombas atômicas, nem cometeríamos falhas das mesmas, o que coloca realmente o que é inteligência. Enquanto que muitos taxados de primitivos, ou tribalistas, entre outros, têm se notado que estes estão inseridos numa ordem de lógicas diferentes, e poderia se julgar até mais inteligentes. Então o termo por si só poderia ser um equívoco, mas agora mais recententemente, vem se falando de diversos tipos de inteligências. Máquinas teriam motivações, ou se trata de um desejo inconsciente ao qual ansiamos para que isso aconteça?

Sim, inteligência é um conceito abstrato, variável em uma análise antropológica, mas em termos de inteligência artificial acho que eu falei lá no início que minha hipótese é algo com capacidade pra resolver questões que não conseguimos (ou mais rápido que nós, se for o caso), porque o objetivo oficial que vários textos mencionam é esse - a despeito das evidentes aplicações bélicas.

Mas a questão não é que as previsões sejam determinantes, keiki..determinismo é quem diz "estamos muito longe de alcançar isso então nem vamos problematizar a questão". O valor que dei pro texto jamais foi pelas previsões em si, e sim pela questão simples da pesquisa sobre medidas de contenção dever ter tanta importância quanto os estudos para a criação de um tipo de inteligência sintética, e isso independe de acreditar em quem diz que está próximo ou em quem diz que está distante. Precisamente porque ninguém pode antever o que vai acontecer (nem se nem quando vai acontecer).