Dopotutto, il fatto che nel 40% dei casi gli esempi generati mostrino problemi significa anche che il rimanente 60% del codice prodotto da Copilot è di buona qualità.
Di recente, alcuni ricercatori hanno deciso di studiare il comportamento di Copilot, soprattutto dal punto di vista della sicurezza del codice prodotto.
Come spesso accade per le novità che hanno a che fare con il machine learning e l’intelligenza artificiale, anche GitHub Copilot ha suscitato molte polemiche tra gli sviluppatori, che non sembrano destinate ad estinguersi nel breve periodo.