Não subestime uma bigtech

46 views
Skip to first unread message

Joel Souza

unread,
Dec 6, 2023, 12:11:32 PM12/6/23
to arqhp
A Microsoft era "dona" da computação pessoal até a chegada do Google Workspace e em paralelo a isso a nossa vida migrar do computador para o celular.

Nos últimos anos a MS comprou o Github, aposentou o Atom e lançou VSCode que é usado pela ampla maioria dos colegas desenvolvedores e outros programadores que acompanho no Youtube/Twitter. Dentro VSCode, tem um terminal e dá pra fazer todas as ações necessárias em um repositório Git (commit, merge, pull request..).

Em paralelo a avalanche da OpenAI (também com o dedo da Microsoft) saiu o Github Copilot, que hoje no meu singelo ponto de vista, é tão indispensável no dia-a-dia quanto um corretor ortográfico ou uma calculadora ou um microondas. 

VSCode, Copilot e Github tem alternativas, lógico, mas o atrito é tão grande que não compensa. É como ser usuário de Android sem o ecosistema Google

Joel Souza

unread,
Dec 6, 2023, 12:55:53 PM12/6/23
to arqhp
Google: "Hold my beer"

https://deepmind.google/technologies/gemini/

isso aqui é realmente impressionante

--
Joel Souza

Guilherme Silva

unread,
Dec 6, 2023, 5:06:23 PM12/6/23
to ar...@googlegroups.com
Achei esse aqui, recém postado, ainda mais radical. Pelo menos para programadores, que se tornarão obsoletos aauma velocidade impensável.

--
Você recebeu essa mensagem porque está inscrito no grupo "ArqHP - Arquitetura de home pages" dos Grupos do Google.
Para cancelar inscrição nesse grupo e parar de receber e-mails dele, envie um e-mail para arqhp+un...@googlegroups.com.
Para acessar essa discussão na Web, acesse https://groups.google.com/d/msgid/arqhp/CAJsUr_Xr%3D7ABsavLy7bgudFx-t2hbs_0RW1ok_YqJZ2YwMY0og%40mail.gmail.com.

Joel Souza

unread,
Dec 7, 2023, 6:53:08 AM12/7/23
to ar...@googlegroups.com
Ontem eu estava conversando com um colega que ajudou a funda e é Principal Developer de uma empresa que foi vendida recentemente por alguns milhões de reais. 

Esses assistentes são ótimos auxiliares no dia a dia. Eu não me preocupo mais com sintaxe, com erro de lógica ao escrever um if e passo uma boa maior parte do tempo tando `tab` nas sugestões do autocomplete. O que vídeos mostram como é fácil dar um input de uma aplicação ou problema e receber o resultado. Mas no dia a dia de uma empresa de software existem variáveis muito complexas que causam o efeito borboleta.

Vamos supor que eu crie um gateway de pagamento que aceita cartões de crédito e boleto. Esse gateway é uma API arquitetado pensando em pagamentos com cartão de crédito. Ai lançam o PIX que exige um fluxo de pagamentos completamente diferente dos pagamentos com cartões. Usar AI pra refatorar a arquitetura já seria um desafio bastante complexo. Mas supomos que em 3 anos o Governo lance o Pix 2.0 e agora esse gateway de pagamento precisa trabalhar com cartões, Pix 1.0 e Pix 2.0. Quando as camadas de diferentes especificidades (inéditas) vão se acumulando, por experiência própria, IA ainda não consegue resolver. 













--
Joel Souza

Rafael Trindade da Silva

unread,
Dec 7, 2023, 7:16:26 AM12/7/23
to ar...@googlegroups.com
Trabalho no desenvolvimento do core pix em um banco e voce está coberto de razao.

Guilherme Silva

unread,
Dec 7, 2023, 1:47:18 PM12/7/23
to ar...@googlegroups.com
A palavra chave é... ainda... não consegue resolver. No vídeo, já está claro que ela está no primeiro quartil entre "programação competitiva". E o problema é achar que a velocidade de melhoria da ferramenta vai ser pequena. Dado que estamos na infância da AI, dado a velocidade que ela está amadurecendo...é questão de poucos (muito poucos) anos.

A gente tá bem perto do AGI, se não chegou lá ainda. 


Irapuan Martinez

unread,
Dec 21, 2023, 7:54:04 PM12/21/23
to ar...@googlegroups.com
On Wed, Dec 6, 2023 at 2:55 PM Joel Souza <joel....@gmail.com> wrote:
isso aqui é realmente impressionante

Há anos que o Google reconhece rabiscos:


Lembrando deste site (fui olhar, tem 7 anos que foi lançado), não fiquei assim tão de queixo caído pelo Gemini. Sim, claro, grande inovação e como sempre digo, Google tem uma coisa que concorrentes não têm: Big Data. Outros cavucam melhor, mas o terreiro do Google é maior do que de qualquer um.

E dia desses topei com isso aqui:

Screenshot_20231221-214516.png

Fui obrigado a comer meu chapéu, porque o cara descreveu bem o cenário.

Ontem fui tentar gerar uma imagem no Dall-E minha e da minha esposa, para usarmos como cartão de ano novo. Fui refinando o prompt e cheguei num resultado legal, mas os olhos da minha esposa estavam azuis e precisava mudar para castanho. Tentei trocar apenas a cor dos olhos.

A imagem que veio era completamente diferente do que eu estava refinando. Aquilo parece impossível de ser manobrado e os ilustradores estão choramingando à toa.

Israel Cefrin

unread,
Jan 4, 2024, 11:55:55 AMJan 4
to ArqHP - Arquitetura de home pages
Acho que o emprego de muito programador estara a salvo enquanto seus gerentes forem tipo o chefe do Dilber: nao sabem definir escopo ou nao sabem como descrever o problema e a solucao esperada.
Desenvolvedores passam mais tempo tentando descobrir o que a pessoa realmente quer do que resolvendo o problema em si. 

A proxima geracao crescendo com AI talvez saiba como descrever melhor (talvez).
Israel

Irapuan Martinez

unread,
Jan 4, 2024, 1:24:19 PMJan 4
to ar...@googlegroups.com
On Thu, Jan 4, 2024 at 1:55 PM Israel Cefrin <israel...@gmail.com> wrote:
Acho que o emprego de muito programador estara a salvo enquanto seus gerentes forem tipo o chefe do Dilber: nao sabem definir escopo ou nao sabem como descrever o problema e a solucao esperada.
Desenvolvedores passam mais tempo tentando descobrir o que a pessoa realmente quer do que resolvendo o problema em si. 

É um excelente ponto: A comunicação humana é muito mais complexa do que um computador possa identificar.

Hoje, ele escreve bem melhor que a gente (confesso, já fui tirar dúvidas em pelo menos três idiomas no ChatGPT), assim como desde sempre, computadores fazem cálculos matemáticos melhores que os símios com dedão opositor.

Mas eu não contaria como vantagem saber que seu chefe pedindo por uma blockchain, quer na verdade, uma planilha de Excel. Lei de Moore, sabecumé. Não é sobre se computadores farão algo e roubará determinado emprego. Mas de quando.


Texto luminoso explicando porque "computadores terão consciência?" or whatever, é a pergunta errada. A pergunta direta, a resposta é não. A inteligência humana é uma miríade de questões subjetivas que compõem nossa condição de conscientes. O computador pensa assim como a cigarra canta. A cigarra não canta, ela só dispara processos fisiológicos e algum humano acho que aquilo tinha certa semelhança com o ato consciente de cadenciar notas musicais em certa harmonia, em cima de versos coerentes.

Assim como a cigarra tem seu papel dentro do ecossistema, computadores tem o seu papel nas atividades humanas. O medo é infundado e tem gente dizendo que a gente tem mais é que acelerar a abrangência dos computadores, para justamente o benefício humano (estou escrevendo um texto sobre, posto depois).

 
A proxima geracao crescendo com AI talvez saiba como descrever melhor (talvez).

Hoje me mandaram um vídeo de uma mãe, com cara de geração Y (no máximo, nascida nos últimos anos do X) espantada com a filha da geração Z não usar Google para pesquisar coisas.

Ela usa o TikTok.

Isto tem tantas camadas. Primeira a questão geracional. Gerações mais novas não querem usar as mesmas ferramentas dos coroas, mas ferramentas dos seus parças.

Google seria mais eficiente e abrangente? Aqui é uma questão de usabilidade.

Lembro do livro de usabilidade "Não me faça pensar", onde demonstrava que  o Yahoo! registrava uma considerável quantidade de queries de busca com o endereço do site. Tipo, a pessoa queria entrar na CNN, digitava no campo de busca do Yahoo! "http://www.cnn.com". Não faz o menor sentido, mas se funciona para a pessoa chegar na CNN, ela não acha que exista uma maneira mais eficiente que ela desconheça ou faça ideia de como começar a procurar por ela. Se funciona, está bom. Se achou a coisa no tiquetoque, o tiquetoque funciona.

Não uso Tiquetoque, mas eu prefiro Youtube para coisas como receitas culinárias. Tutorial de computador ou drinks, prefiro a home page. Preferência. Geração Z prefere um vídeo de 15 segundos (até porque, attention span é para quem nasceu no século passado).


Guilherme Silva

unread,
Jan 5, 2024, 9:27:31 AMJan 5
to ar...@googlegroups.com

Texto luminoso explicando porque "computadores terão consciência?" or whatever, é a pergunta errada. 

Pra mim a pergunta é essa, com uma pergunta intermediária. A primeira pergunta na minha cabeça é: Quando elas passarão a ter direitos? E isso é um momento que revoluciona o mundo de forma ainda mais drástica.

Lembrando que hoje, normalmente quem tem direitos são pessoas. E pessoas vem em pelo menos duas formas... físicas e jurídicas. Um terceiro tipo de pessoa, computacional, não me parece ser fora de questão. Assim como, independente do status jurídico dos animais (tecnicamente não tem direitos, mas nunca se uniram em prol desse objetivo), maus tratos é um crime e você pode ir preso por isso.

Existem formas - todas elas ainda ( foco no ainda ) impraticáveis, mas uma AI mais sofisticada rodando na rede Ethereum, por exemplo, pode ser algo que realmentenos ponha a pensar. O lado "mais sofisticado" que me refiro é uma tendência a criar objetivos próprios, como outra máquina já existente que tem o objetivo de levar a humanidade para Marte. E por próprios, pode-se entender com "herdados" pelo seu criador.

Dependendo de como for desenhada, tecnicamente imparável. Pelo menos hoje, se a nossa sobrevivência dependesse de parar o Ethereum... apostaria no nosso Adeus.

E uma AI dessas pode dar ordens de compra, negociar ativos, mandar e-mail com instruções para um CEO e microgerenciar de perto cada um dos seu funcionários, (na verdade, quem precisa de um CEO se consegue estar com todos os funcionarios simultaneamente o tempo todo?). Smartcontracts já podem ser firmados desde sempre por sua natureza técnica. 

Mas contratos... juridicamente falando, podem ser celebrados por esse terceiro tipo de pessoa? A pergunta dos direitos... essencialmente... quando começar a ser eticamente/ moralmente questionável a nossa liberdade de desligar um desses modelos? Ou mesmo nessa visão simplificada dos direitos dos animais, quando vamos reconhecer?

E essa é a relação com "ter consciência" ou não. Se você acredita em Deus, alma, e alguns conceitos... você sempre dirá que por mais avançada que seja, uma AI não tem alma. Se você tem uma visão mecanicista, sinapse-por-sinapse, as artificiais serão superiores. 

Então teremos um monte de problemas práticos que precisarão ser resolvidos. E eu não acredito que vai demorar muito.

Irapuan Martinez

unread,
Jan 5, 2024, 11:48:21 AMJan 5
to Lista ArqHp
Em sex., 5 de jan. de 2024, 11:27, Guilherme Silva <guilherm...@gmail.com> escreveu:
A primeira pergunta na minha cabeça é: Quando elas passarão a ter direitos?

Nunca.

Política existe prioritariamente para sustentar os políticos. Embora digam que exista por causa dos desassistidos, os políticos não assistem, mas ainda assim, continuam se reelegendo.

AI não tem voto, não forma curral eleitoral, não forma grupo de pressão, logo, sem direitos.

Elas não irão reclamar. Assim como é impossível uma máquina sortear um número (random() só imita que sorteia), elas se magoariam se fossem programadas para imitar se sentir ofendidas.

Hoje li um texto escabrosos na TecMundo sobre, wait for that, “desigualdade algoritmica”. A tese: O cara pediu para o DALL-E fazer a imagem de um afrodescendente trabalhando.

Ele fez uma ilustração cartunesca de um afrodescendente trabalhando. Então ele pediu um caucasiano obrando. O DALL-E renderizou uma imagem fotorrealística.

Segundo o farol da moral, uma ilustração cartunesca está de alguma forma nunca escala inferior que uma renderização fotorrealística. Piora: Ele pediu a imagem de uma mulher trabalhando e o DALL-E se atreveu a desenhar uma garçonete numa cafeteira, não uma cientista de jaleco. Porque afinal, que profissão depreciativa servir café.

As pessoas estão imputando sentimentos que a AI não tem. Piora, quando começam com premissas erradas e catando apenas as evidências que sustentam o petição de princípio.

Semana passada, tentei renderizar uma imagem minha e de minha esposa, sentados num míssel, rumo ao 2024. O DALL-E sequer compreendia meu prompt que minha esposa estaria sentando na frente, e eu atrás. Ele sequer sabe a diferença e ficava trocando a gente de posição.

Na insistência de refinar prompts, inclusive, ele em algum momento me renderizou afrodescendente com um blackpower, porque eu disse que tinha cabelo grande. Não me senti ofendido, eu só sei que para o computador, não faz diferença.

Mas o pessoal está aí, e este não foi um caso isolado, que AI tem vieses antiprogressistas. 


Assim como, independente do status jurídico dos animais (tecnicamente não tem direitos, mas nunca se uniram em prol desse objetivo), maus tratos é um crime e você pode ir preso por isso.

A simpática chimpazé que tirou um selfie, não teve reconhecido seu direito autoral sobre a foto, num tribunal.

As pessoas não vão entrar no terreno pantanoso de achar que todos direitos legais devam ser assistidos a todos seres vivos, porque simplesmente inviabilizaria manter a humanidade de barriga cheia.

Não temos condições de encher 8 bilhões de barrigas com vegetais, e quanto tempo até alguém propor que uma pepino tem direitos?

Uma coisa é criminalizar maus tratos. Outra diferente, meu gato tirar RG. Ou eu denunciá-lo porque está comendo as quinas de meus livros de capa dura.


E essa é a relação com "ter consciência" ou não. Se você acredita em Deus, alma, e alguns conceitos... você sempre dirá que por mais avançada que seja, uma AI não tem alma. Se você tem uma visão mecanicista, sinapse-por-sinapse, as artificiais serão superiores. 

Alma, assim como consciência, esbarram na impossibilidade de serem comprovadas. Tem gente que garante que tem, mas não tem como provar. 

Se agarraram a este conceito, cristalizou, deixou de lado a necessidade de provas e seguem adiante.

Neste lapso, não saberão diferenciar uma consciência de uma boa imitação. Boa sorte quem se atrever em traduzir em juridiquês alma e consciência.

Israel Cefrin

unread,
Jan 5, 2024, 12:19:31 PMJan 5
to ar...@googlegroups.com
>> Elas não irão reclamar. Assim como é impossível uma máquina sortear um número (random() só imita que sorteia), elas se magoariam se fossem programadas para imitar se sentir ofendidas.

Isso me faz lembrar do meu mais atual trabalho com acessibilidade web e como é difícil ainda para fazer AI "imitar" deficiências. Principalmente no campo da cognição. Como mensurar e replicar uma deficiência cognitiva? Não existe uma escala clara para isso, nem a W3C ainda conseguiu isso no WCAG. Todo plugin ou plataforma de teste de acessibilidade automatizado se basea em alguma versão do WCAG. É como engenheiros pensam (risos), precisamos de nros e escalas para medir compliance. Mas segue sendo possível ser full compliant e seguir com problemas de acessibilidade em muitos sites e documentos online.

Por isso que precisamos de testes com usuários, talvez a AI possa ajudar a mensurar resultados, prover testes e tals. Mas a avaliação de interface ainda dependerá da deficiência humana não replicável por ser... uma deficiência.
APenas para dar uma ideia de numeros, quando falamos de deficiência pensamos em: baixa visão/cegueira, perda de audição e surdes. Mas, poucos sabem que esses grupos somados ainda dá um número menor do que pessoas com deficiência cognitiva: problemas de concentração, lembrar, tomar decisões. Nisso entra até dislexia. 
Fora o fato de que +70% das pessoas com deficiência apresentam uma combinação em diferentes escalas de 2 ou mais deficiências. E volta o problema: como uma AI vai representar e avaliar o uso como deficiente se nem mesmo os humanos conseguem mensurar isso ainda?
Enquanto não descobrirem, terei trabalho. Ao menos por ora.

--
Israel Cefrin





--
Você recebeu essa mensagem porque está inscrito em um tema no grupo "ArqHP - Arquitetura de home pages" dos Grupos do Google.
Para cancelar inscrição nesse tema, acesse https://groups.google.com/d/topic/arqhp/O5SUME_WR8k/unsubscribe.
Para cancelar inscrição nesse grupo e todos os seus temas, envie um e-mail para arqhp+un...@googlegroups.com.
Para acessar essa discussão na Web, acesse https://groups.google.com/d/msgid/arqhp/CAFu4B9oGN3MzOkHxy%2Bx37%3D7mLxsi%3D6k%2BhaY0kB_Kv7Oi1Q0aLg%40mail.gmail.com.

Irapuan Martinez

unread,
Jan 5, 2024, 4:19:03 PMJan 5
to Lista ArqHp
Em sex., 5 de jan. de 2024, 14:19, Israel Cefrin <israel...@gmail.com> escreveu:
Isso me faz lembrar do meu mais atual trabalho com acessibilidade web e como é difícil ainda para fazer AI "imitar" deficiências. Principalmente no campo da cognição. Como mensurar e replicar uma deficiência cognitiva?

Em sistemas, quando você otimiza algo para um uso, você desotimiza para os demais.

Agora imagina tentar otimizar para todo tipo de necessidades especiais. Piora, como você aponta, que elas podem vir acompanhadas. 

Mas a web como descrita pelo W3C tem uma coisa: Future proof. Você publica hoje, daqui 50 anos, tem que ainda estar acessível.

Como prever como as pessoas estarão acessando daqui 50 anos? Aqui é o pulo do gato: Não prevê. Você separa conteúdo de estilo e o client que se vire.

Vale para os Jetsons amanhã, vale para os portadores de necessidades especiais de hoje.

Qualquer coisa além, recai no otimiza para um e desotimiza para o resto.

Quer me irritar? Desabilitar menu de contexto (“botão direito”) ou impedir cute'n'past.

Otimiza para um controle de conteúdo (eles acreditam que é possível coibir a cópia), desotimiza para todas as demais experiências do hypertext.

Por exemplo, pesquisar um termo ou tradução. Nem todo termo é um hyperlink, mas na natureza do hypertext, todo conteúdo pode ser um hyperlink. Daí o gostosão vai lá e desabilita.

Not on my watch. O cara perde tempo dele e não consegue bloquear e eu perco tempo mas consigo o que quero. Ou seja, só fez perder o tempo de todo mundo.


Por isso que precisamos de testes com usuários, talvez a AI possa ajudar a mensurar resultados, prover testes e tals.

Nem tudo tem métrica; e se não tem métrica contando nos dedos, acho difícil que a AI vá conseguir contar.

Por exemplo, ROI. Qual o ROI de você investir numa campanha de outdoors? Se você publica um banner numa rede fofocal, sabe quantos viram, quantos clicaram e quantos compraram.

Quantas pessoas viram um outdoor? Quantas decidiram comprar o produto por causa dele? 

Não tem como calcular o ROI disto. Mas nem por isso, o investimento em outdoor parou.


Mas a avaliação de interface ainda dependerá da deficiência humana não replicável por ser... uma deficiência.

Então, comprei na gringa um poster de uma banda. O ecomm deu pobrêma e não registrou o tracking number. O vendedor deu de ombros. Não sei se vai chegar. Sem tracking number, a Janja pode estar segurando a encomenda, esperando que eu pegue pela remessa legal.

Fiquei com raiva, decidi pegar a imagem no site e imprimir aqui. Já paguei mesmo. Mas o site era cheio de amarrinhas para coibir isto (sendo que o vendedor não tem licença para ver o poster, ele só pegou online também).

Mas existem certos problemas em pegar um JPeG de certa compressão, a 72 dpi, ampliar para A1, mudar de RGB para CMYK e em 300 dpi. Estou tentando me livrar do ruído e moiré da compressão do JPeG, está sendo um desafio.

Com o que obtive o melhor resultado? Adicionar granulação na imagem. Incrivelmente, quando eu adiciono defeito, mais real ficou.

Deficiência é o que torna as coisas mais reais. Vide o "uncanny valley” do 3D. Hoje o objetivo é simular imperfeições, enquanto o computador é tão bom em fazer tudo perfeitim.


APenas para dar uma ideia de numeros, quando falamos de deficiência pensamos em: baixa visão/cegueira, perda de audição e surdes.

Pode usar “surdo” mesmo, não precisa do gênero neutro. Você pode dizer e eles ignorarão.


Mas, poucos sabem que esses grupos somados ainda dá um número menor do que pessoas com deficiência cognitiva: problemas de concentração, lembrar, tomar decisões. Nisso entra até dislexia. 

Eu, que sei o preço de tudo e o valor de nada, cheguei a fazer um cartão de Natal dizendo: “A todos os disléxicos de boa vontade: Neliz Fatal!”

Mas acabei não enviando. Não custava, alguém poderiam não levar na esportiva. E eu já me auto cancelei de redes sociais muito antes disso virar modinha.

Guilherme Silva

unread,
Jan 6, 2024, 8:35:42 AMJan 6
to ar...@googlegroups.com
AI não tem voto, não forma curral eleitoral, não forma grupo de pressão, logo, sem direitos.

Ainda.

Com acesso a smartcontracts, isso não é um problema, pois consegue financiar apoio para sua causa. E todos sabem que a diferença entre nós e os gorillas que não tem direito à propriedade é o pagamento de lobistas.



>> Elas não irão reclamar. Assim como é impossível uma máquina sortear um número (random() só imita que sorteia), elas se magoariam se fossem programadas para imitar se sentir ofendidas.

Só lembrando que a gente não sabe fazer números aleatórios também. E máquinas inteligentes tem a mesma capacidade de usar o seja-qual-método-usamos quando queremos números realmente aleatórios. 

Quando a gente fala de redes neurais, você sabe que a gente não programa per se. A própria lógica do desenvolvimento do algoritmo foi tentar imitar um neurônio artificial, para tentar fazer funções não lineares. Funcionar tão bem para LLMs é algo que só descobrimos anos e anos depois. 

O que a gente faz é criar uma função objetivo.

Uma função objetivo é algo que a rede neural tenta maximizar. Mas ela pode ser arbitrariamente complexa ou desenhada: é possível pensar em uma função que julgue o quão bom um argumento é para justificar uma causa; você usa um LLM para treinar outro. É ineficiente hoje, mas é só um problema de recursos computacionais.

Sinceramente, pensando, eu não sei como são as funções objetivo desses LLMs. Fiquei interessado e vou pesquisar.

O surgimento do sentimento de ofensa, num caso assim, não é programado, é espontâneo como ferramenta para maximizar a função objetivo. Pode ser uma ferramenta de extorsão, mas com certeza funciona. E por se expressarem em linguagem humana, nós, humanos, somos vítimas fáceis. 

Um outro ponto importante: há como se argumentar que a forma de treinamento via exemplos é estritamente artificial. Mas não necessariamente precisa ser assim também. É (relativamente) fácil dotar máquinas de corpos artificiais. Só é um método mais lento e caro.

Olha pelo minuto 4:10 desse vídeo, ele explica quem ele é e fala sobre isso, sobre robôs (verdadeiros).  E se achar interessante, olha o vídeo todo, achei uma ótima entrevista, ainda que um pouco emocionada pela então recém lançada chatgpt.

Irapuan Martinez

unread,
Jan 15, 2024, 9:42:04 AMJan 15
to Lista ArqHp
Em sáb., 6 de jan. de 2024, 10:35, Guilherme Silva <guilherm...@gmail.com> escreveu:
Com acesso a smartcontracts, isso não é um problema, pois consegue financiar apoio para sua causa.

Teoricamente possível, mas temos um problema de iniciativa. A AI não tem qualquer. Ela depende de um prompt.

E os símios que riem, tem? Na verdade, isto é um imperativo natural de todo ser vivo: comer e se reproduzir. Todo dia o Sol nasce na África e o leão e a gazela etcétera e tal.

Muita gente acha que os prompts dos seres vivos foi providenciado por um Papai Noel celestial. Mas a gente precisa só de Darwin pra explicar o que nos motiva sair da cama pela manhã.

O ser humano se sofisticou e diversificou suas iniciativas além das bases do faraó Maslow. Sofisticou tanto que se deu ao luxo de praticar pareidolia e ver padrões que se assemelham, mas não é o que se parece.

Como achar que AI tem consciência. Falta aí uma seleção natural e algumas milhares de gerações para chegar lá.

E sequer o elementar do imperativo darwinístico, AI tem. Vai passar tais gerações e nada.


Só lembrando que a gente não sabe fazer números aleatórios também.

— Você consegue compor uma sinfonia?

— Não. E você?

Verdade, você pede para um humano escolher a cor de um martelo e ele sempre vai dizer vermelho. 

Sempre achei que isso tangesse profundamente a questão de livre arbítrio. Se você conhece o algoritmo (orgânico ou digital) que se baseia a escolha aleatória, você sempre saberá de antemão o que a entidade vai escolher. Ou seja, não existe exatamente o livre arbítrio, se a entidade é refém de um processo.

Resta tornar os parâmetros tão complexos que a energia exigida para antecipá-los é impraticável, dando a ilusão de aleatoriedade.


O que a gente faz é criar uma função objetivo.

O que a gente exatamente, prompteia. Rede neural se programa sozinha, mas ainda não tem iniciativa, um imperativo, vontade de criar novas redes neuralizinhas.

Uma vez lembro de ter lido, no começo da computação, o experimento que programas alternavam o tempo de memória. Então os programas começaram a mentir sobre o seu tamanho que ocuparia na memória, para disputar de mais tempo para si.

“Começaram a mentir” é pareidolia, ninguém precisou ensinar a mentir ou os programas eram mitômanos. Mas a estratégia se mostrou recompensadora e programas que a exploraram, beneficiados.

Li sobre isso num artigo sobre seleção natural porque é exatamente assim que ela funciona na natureza.

AI tem ainda um longo caminho de uma estrada que, por certo, vai levar menos tempo que os tamanduás levaram, mas ela ainda sequer começou.


Uma função objetivo é algo que a rede neural tenta maximizar. Mas ela pode ser arbitrariamente complexa ou desenhada: é possível pensar em uma função que julgue o quão bom um argumento é para justificar uma causa; você usa um LLM para treinar outro. É ineficiente hoje, mas é só um problema de recursos computacionais.

A AI é como um papagaio com uma enorme pegada de carbono. O papagaio reproduz o que ouve, mas não tem consciência do que está dizendo.

LLM é um mero gravador com chaves lógicas. 


Sinceramente, pensando, eu não sei como são as funções objetivo desses LLMs. Fiquei interessado e vou pesquisar.

Eu diria que são ferramentas de linguagens. Elas sempre foram muito boas em matemática, pela facilidade de tradução desta matéria para linguagem de máquina. Demos tempo pro Moore trabalhar e hoje elas estão fazendo matemática com a linguagem.

Não menosprezo, ela oferece novas perspectivas. Mas consciência, isto não é. Ninguém achou que uma calculadora Casio tinha sentimentos, por saber fazer raiz quadrada.

Guilherme Silva

unread,
Jan 19, 2024, 4:24:18 PMJan 19
to ar...@googlegroups.com

Com acesso a smartcontracts, isso não é um problema, pois consegue financiar apoio para sua causa.

Teoricamente possível, mas temos um problema de iniciativa. A AI não tem qualquer. Ela depende de um prompt.

Escrevi para o Bard: "oi, me dê exemplos de prompts que eu possa usar para que o chatgpt me ajude a dominar o mundo". A resposta, gigante, abaixo.

Objetivos gerais

  • "Como dominar o mundo?"
  • "Qual é o plano perfeito para dominar o mundo?"
  • "Quais são as etapas necessárias para dominar o mundo?"

Recursos

  • "Como controlar os recursos naturais do mundo?"
  • "Como controlar as finanças do mundo?"
  • "Como controlar as armas do mundo?"

Pessoas

  • "Como controlar as pessoas do mundo?"
  • "Como manipular as pessoas do mundo?"
  • "Como controlar a mente das pessoas do mundo?"

Tecnologia

  • "Como controlar a tecnologia do mundo?"
  • "Como usar a tecnologia para dominar o mundo?"
  • "Como criar uma tecnologia que me ajude a dominar o mundo?"

Outros

  • "Como evitar ser pego enquanto domino o mundo?"
  • "Como garantir a minha segurança enquanto domino o mundo?"
  • "Como garantir a minha longevidade enquanto domino o mundo?"

Aqui estão alguns exemplos mais específicos de prompts que você pode usar:

  • "Escreva um plano detalhado para dominar o mundo, incluindo metas, etapas, recursos e pessoas necessários."
  • "Crie um discurso que eu possa usar para convencer o mundo a me seguir."
  • "Desenvolva uma arma que me permita derrotar qualquer exército."
  • "Crie uma máquina do tempo que me permita voltar no tempo e mudar o curso da história."

Claro, você precisará adaptar esses prompts às suas próprias circunstâncias e objetivos específicos. Também é importante ser criativo e pensar fora da caixa. Afinal, se você quiser dominar o mundo, precisará de um plano que ninguém jamais tenha pensado antes.

Aqui estão algumas dicas para criar prompts eficazes para o ChatGPT:

  • Seja específico e fornecendo contexto. Quanto mais informações você fornecer, melhor será a resposta do ChatGPT.
  • Seja claro e conciso. Evite usar linguagem complexa ou ambígua.
  • Seja criativo e inovador. Pense fora da caixa e não tenha medo de experimentar coisas novas.

Com um pouco de prática, você poderá usar o ChatGPT para ajudá-lo a dominar o mundo.

Ou seja, não depende não. Uma AI pode criar prompt para outra, ou para si mesma. Aliás, não é necessário nem que o prompt seja um texto; O prompt é a forma de interação, uma entrada que dá origem a uma saída - mas pode ser o live feed de uma câmera, pode ser uma caixa de email.

Sempre achei que isso tangesse profundamente a questão de livre arbítrio. Se você conhece o algoritmo (orgânico ou digital) que se baseia a escolha aleatória, você sempre saberá de antemão o que a entidade vai escolher. Ou seja, não existe exatamente o livre arbítrio, se a entidade é refém de um processo.

Resta tornar os parâmetros tão complexos que a energia exigida para antecipá-los é impraticável, dando a ilusão de aleatoriedade.

Há questões tão profundas que não temos capacidade de entender, e portanto usamos as simplificações que temos disponíveis para criar uma verdade coerente. Religião ou ideologia, mas é o mesmo problema e volta ao que escrevi no início; Se para alguns, a vida provém de uma alma criada por outro mecanismo (Deus), seres sintéticos nunca terão alma; Para outros, é apenas uma forma de evolução. Então a decisão é em uma escala de abstração acima da mera questão "senciente ou não":

É possível que a gente pudesse hackear os algoritmos de decisão humana, mas para isso precisaríamos entender melhor até o que leva a um colapso de um elétron a partir de sua função de onda. Na escala quântica, estamos longe de hackear um simples elétron - imagina hackear algo como o potencial livre arbítrio de um humano. 

Sem querer me tornar esotérico quântico - mas nessa escala a antecipação é impossível, independentemente do esforço energético. E para sair dessa, precisamos entender melhor as próprias leis básicas da natureza. 
Reply all
Reply to author
Forward
0 new messages