seus pontos são válidos. o povo de eng de soft. há décadas afirma que otimos programadores produzem 10x que os mediocres. A IA deve aumentar essa diferença. Pra trabalhos braçais, idiosincrassias da linguagem, gerar exemplos onde a doc é porca, etc. Impressiona.
Mas os alunos estão com preguiça mesmo, ao ponto de deixar de entregar qdo não conseguem 'explicar para o GPT' o problema. E entregam soluções subpar, ineficientes, pq nem sempre o GPT gera o melhor código possivel.
Laboratorios de estrutura de dados: Alg. de grafos como Prim, arvores balanceadas, Hash, variações de QuickSort. Submetem o PDF do enunciado do lab, o GPT gera tudo. Com erros, mas eles submetem os erros de volta ao GPT, e assim vai, ate corrigir. Nos labs mais simples do 1o ano o GPT acerta de cara, o sujeito nem aprende um "printf" pra debugar. Mesmo se funciona, e mesmo se ele entender o codigo, todo o processo cognitivo é diferente.
"Para código do mundo real o gpt tem muitas falhas intencionais, você precisa à mesma de saber como escrever código." Essa é a minha percepção, a pergunta é como fazer os alunos perceberem isso.
Estamos em um nivel onde:
* Um aluno pediu "gere uma GUI para Nurikabe" (um jogo obscuro) e a IA gerou em python, certo de primeira.
* Prof. incluiu requisitos de desempate para a escolha de arestas no Prim. De forma que todos os alunos acham a mesma árvore, o que é incomum. Mas bastou submeter o PDF do enunciado, e o GPT resolveu.