estudo de IA/ML

1 view
Skip to first unread message

Ricardo Fabbri

unread,
Mar 17, 2023, 4:26:39 PM3/17/23
to listama...@googlegroups.com
Oi Pessoal,

Meu aluno o Biao e eu organizamos um plano de estudos atualizado em
ML, voltado a deep learning / redes neurais, o mainstream mesmo.

https://docs.google.com/document/d/11a7lOaOXnOfo_dTcYJLQwTCqwOdJx19FEQglBIqXFYY

Se puderem dar um feedback, depois transformo numa página da Wiki. Vai
ajudar muito ao BIao e outras pessoas.

Abs,
--
Ricardo Fabbri
Professor of Computer Engineering
IPRJ/UERJ Nova Friburgo Graduate Program – CAPES 6
rfabbri.github.io

Michel Andre Maurice HOSPITAL

unread,
Mar 17, 2023, 6:22:09 PM3/17/23
to listama...@googlegroups.com
Voce poderia acrescentar algumas referencia de :
Yann Le Cun

Também falvar  das soluçoes materiais 
Neuromorficas.  

INTEL
GENERAL-VISION ( RBF) 

.....

--
Você está recebendo esta mensagem porque se inscreveu no grupo "listamacambira" dos Grupos do Google.
Para cancelar inscrição nesse grupo e parar de receber e-mails dele, envie um e-mail para listamacambir...@googlegroups.com.
Para ver esta discussão na web, acesse https://groups.google.com/d/msgid/listamacambira/CACjTMEwP%2B4QgzbZM-UCqgydKbeEKKuMCO14hvHiV8mtCgD0uEA%40mail.gmail.com.

Daniel Penalva

unread,
Mar 19, 2023, 6:00:56 PM3/19/23
to listama...@googlegroups.com
O mais difícil de estudar machine learning é a necessidade de definir um projeto com escopo e o conjunto de dados, pra estudar os algoritmos acredito que aquela referência primeira do Google já é muito boa.

--
Você recebeu essa mensagem porque está inscrito no grupo "listamacambira" dos Grupos do Google.

Para cancelar inscrição nesse grupo e parar de receber e-mails dele, envie um e-mail para listamacambir...@googlegroups.com.

Ricardo Fabbri

unread,
Mar 20, 2023, 10:31:03 AM3/20/23
to listama...@googlegroups.com
> O mais difícil de estudar machine learning é a necessidade de definir um projeto com escopo e o conjunto de dados, pra estudar os algoritmos acredito que aquela referência primeira do Google já é muito boa.

É bem básica, mas um bom ponto de começo.

>>
>> Voce poderia acrescentar algumas referencia de :
>> Yann Le Cun
>> https://fr.m.wikipedia.org/wiki/Yann_Le_Cun
>>

Com certeza Michel! Sempre vi o Le Cun como o verdadeiro pioneiro da área.
Em 2006 ele já dava palestra lá em Brown fazendo tudo funcionar, numa
era em que quase nada funcionava de forma 100% automática.
É a diferença entre saber e saber fazer funcionar.

A lista de referências que mandei estava muito voltada ao Google e tensor flow.
Adicionei umas referências do LeCun lá. Em especial o artigo da aula
do prêmio Turing,
mais de divulgação. O curso dele é bem mais direto ao ponto e meio
estilo "hacker"
do que o do MIT que tem tudo muito fru fru. Algums palestras que vi do
cara durante minha carreira
me deram a impressão que ele é mais do tipo que passa muita informação
e rápido, porém menos didático talvez pra alguns.

Abracao a todos
> Para ver essa discussão na Web, acesse https://groups.google.com/d/msgid/listamacambira/CACWj1Trt9BaL-MNQ6gks-tEMe4KMRiTdpLsMzmFMz%2BEW0URb%2BQ%40mail.gmail.com.

Ricardo Fabbri

unread,
Mar 20, 2023, 6:29:30 PM3/20/23
to listama...@googlegroups.com

--
image_6483441.JPG

Daniel Penalva

unread,
Mar 20, 2023, 8:48:53 PM3/20/23
to listama...@googlegroups.com
Vi essa comparação em algum curso que fiz, mas não sei dizer o porquê do pytorch ser preferido. Faz tempo que não faço deep learning e no tempo que usava essas libs o Tensorflow estava no 1.x e eu achava muito bom, enfim, seria massa se alguém tiver uma idéia do porquê disso. 

Vilson Vieira

unread,
Mar 21, 2023, 8:54:06 AM3/21/23
to listama...@googlegroups.com
Fala queridões, quanto tempo! Espero que estejam todos bem!

Achei bem massa a lista Ricman! De livro introdução, gosto muito desse, que constrói passo a passo um mini-PyTorch (ele chega a ser monótono nos primeiros capítulos, mas bem legal): https://www.manning.com/books/grokking-deep-learning 
E também esse do autor de Keras (usa TF, mas acho uma introdução legal): https://www.manning.com/books/deep-learning-with-python-second-edition

Dá uma googleada que tem como achar eles vagando na interweb em PDF...

Curto muito os vídeos do Karpathy (tudo desse cara é muito foda, ele era head de AI da Tesla, agora voltou para a OpenAI): https://www.youtube.com/watch?v=VMj-3S1tku0 
Os course notes do curso que ele ministrava ainda valem muito a pena para introdução a CV+DL IMHO: https://cs231n.github.io/ 

Migrei para PyTorch faz alguns anos, realmente houve um pivot da comunidade. Acho que por vários motivos:
- Meta (e FAIR labs, do LeCun) por trás do desenvolvimento, deu uma impulsionada legal
- Uso de dynamic computational graphs do PyTorch (ao invés de static no TF) ajudou bastante, é muito mais fácil de debugar um grafo sem um monte de detalhes de otimização (no caso do TF) e que você pode inspecionar em tempo de interpretação, casa muito com o jeitão de Python
- A quantidade de abstração que Keras adicionou (que foi integrado totalmente no TF 2.0), fez com que fosse muito fácil e gostosinho de criar uma rede em Keras, mas por outro lado esconde muitos detalhes que PyTorch deixa bem explícito. Criar uma rede em PyTorch demanda mais linhas de código, mas é muito fácil de criar novas camadas, selecionar o que especificamente você quer usar na função de custo e por aí vai...
- Isso fez com que a comunidade usasse mais PyTorch e os trabalhos mais recentes acho que 98% continua usando, o que gerou uma chain reaction IMHO
- Eles separaram o PyTorch da Meta no ano passado, tornando ele parte da Linux Foundation, o que achei muito foda e mais uma razão para continuar usando: https://ai.facebook.com/blog/pytorch-foundation/

Abração!



--
Vilson Vieira
.:. https://void.cc

Reply all
Reply to author
Forward
0 new messages