Lucas S. Vieira
O essencial para começar com IA
Guilda de IA
8.4B total, 760M ativos por token (MoE++). Apache 2.0. Treinado em AMD MI300x (1024 nós).
Mas: arquitetura customizada (CCA + router MLP) → não roda em llama.cpp. Precisa de vLLM/SGLang.
Daniel Lougen (M.S.): "ZAYA1-8B usa até 5.5M tokens por problema pra chegar nos benchmarks. DeepSeek-R1? ~23K tokens. Isso é 240x mais compute em inferência. O framing de '4B active' soa eficiente, mas o resultado vem queimando test-time compute que outros modelos não precisam."
AISI (UK) testou os dois modelos em cybersecurity:
- GPT-5.5: 71.4% (tarefas Expert)
- Mythos Preview: 68.6% (margem de erro se sobrepõe)
Mythos resolveu ataque end-to-end em 3/10 tentativas. GPT-5.5 em 2/10.
O detalhe: Mythos é acesso restrito (11 parceiros). GPT-5.5 é público.
nome = "Maria" # texto (string)
idade = 25 # número inteiro (int)
altura = 1.70 # número decimal (float)
estudante = True # verdadeiro/falso (bool)
# F-strings
mensagem = f"{nome} tem {idade} anos"
# Lista: sequência ordenada
frutas = ["maçã", "banana", "laranja"]
frutas.append("uva")
frutas[0] # "maçã"
frutas[-1] # "uva"
# Dicionário: pares chave-valor
pessoa = {"nome": "João", "idade": 30}
pessoa["nome"] # "João"
pessoa["idade"] = 31 # atualiza
pessoa["cidade"] = "BH" # adiciona
def saudar(nome, saudacao="Olá"):
return f"{saudacao}, {nome}!"
saudar("Maria") # "Olá, Maria!"
saudar("João", "Oi") # "Oi, João!"
if idade >= 18:
print("Maior de idade")
elif idade >= 12:
print("Adolescente")
else:
print("Criança")
# Iterar em lista
for fruta in frutas:
print(fruta)
# Range
for i in range(5):
print(i) # 0, 1, 2, 3, 4
# While
count = 0
while count < 3:
print(count)
count += 1
luksamuk.codes/pages/guilda-ia → Semana 03Colab abre em modo SOMENTE LEITURA. Faça "Arquivo → Salvar uma cópia no Drive" antes de editar.
"Python é a ferramenta. O LLM é o cérebro. A API é a ponte entre eles."