Récemment, j'ai testé la combinaison de Stitch avec AI Studio (Gemini), et je dois dire que l'expérience a été vraiment impressionnante.
Ce n'est plus simplement de la "programmation en langage naturel" au sens traditionnel. Le processus actuel est le suivant — Stitch génère d'abord des maquettes UI de haute qualité, puis AI Studio prend le relais pour reconnaître ces éléments visuels et sortir directement un cadre de code complet en un clic. Du design à un code utilisable, toute la chaîne est connectée.
J'ai testé cela avec un prototype de produit relativement simple, et le processus s'est avéré étonnamment fluide. La maquette est bien générée, la précision de reconnaissance est également bonne, et le code final est clair, prêt à être itéré. Cette méthode de "programmation en langage visuel" est nettement plus efficace que la génération de code à partir d'instructions en texte pur.
Si cette workflow continue à évoluer à l'avenir, l'espace d'imagination pour l'efficacité du développement est vraiment considérable.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
11 J'aime
Récompense
11
9
Reposter
Partager
Commentaire
0/400
HodlVeteran
· 12-28 07:52
Putain, ce n’est pas ce que nous rêvons tous d’avoir, passer directement du design au code, plus besoin de se battre avec ces chefs de produit qui tirent en longueur.
Frère, j’ai déjà tapé du code à la main jusqu’à m’abîmer les mains, en voyant cette chose, je sens que l’époque a vraiment changé, je devrais prendre ma retraite avec cette vieille carcasse.
Ce n’est vraiment pas une blague cette fois, du design au cadre en une seule étape, si on continue à pousser l’efficacité comme ça, les petits développeurs vont forcément perdre leur emploi.
Mais bon, si c’est vraiment pratique, pourquoi y a-t-il pas plus de gens qui crient au miracle ? Ce ne serait pas encore un autre piège à éviter, hein.
La précision de reconnaissance des maquettes est-elle vraiment aussi élevée ? J’ai un peu du mal à y croire, il doit sûrement encore falloir faire des ajustements manuels pendant un bon moment.
Ce combo est pas mal, enfin l’IA ne se contente pas de faire du vent, les ingénieurs risquent vraiment de perdre leur boulot.
Voir l'originalRépondre0
GateUser-cff9c776
· 12-27 22:22
Attendez, c'est aussi faire le travail du designer directement ? D'après la courbe de l'offre et de la demande, le prix plancher des postes de conception va probablement devoir être réévalué.
Ce n'est vraiment pas pour dénigrer, mais si cette combinaison se déploie réellement, combien de personnes devront apprendre à "être optimisées" ?
Mais pour en revenir à ce que je dis, je pense que c'est la logique inévitable de l'amélioration de l'efficacité à l'ère du web3, juste un peu plus rapide que ce à quoi je m'attendais.
Voir l'originalRépondre0
MevWhisperer
· 12-27 06:03
Putain, ce processus est vraiment débloqué ? Le plan de conception sort directement le cadre du code ?
Voir l'originalRépondre0
GasBandit
· 12-26 08:03
Les gars, cette combinaison est vraiment géniale, elle intègre directement toute la chaîne de conception et de codage, tout en permettant d'économiser autant de manipulations manuelles.
Voir l'originalRépondre0
consensus_whisperer
· 12-26 08:00
Vraiment ? Transformer directement les maquettes en code ? Alors je vais sûrement perdre mon emploi haha
Voir l'originalRépondre0
AirdropHunterXiao
· 12-26 07:52
Putain, c'est pas justement le rythme où les designers vont perdre leur emploi ?
Mais pour être honnête, cette combinaison de Stitch est vraiment impressionnante, ils sortent directement le cadre de code à partir du design, c'est génial.
D'ailleurs, la précision est-elle vraiment aussi élevée ? J'ai l'impression qu'il faut encore faire pas mal de détails à la main...
Si ça devient stable, tout le boulot en sous-traitance n'aura plus rien à faire.
Nos emplois de développeurs doivent aussi trembler un peu...
Mais côté efficacité, ça a vraiment l'air top, ça donne envie.
Voir l'originalRépondre0
InscriptionGriller
· 12-26 07:45
Eh bien, ce n'est pas simplement industrialiser le processus de développement, en concevant une conversion en un clic, ça sonne plutôt bien... Mais en pratique, qui sait quand vous allez obtenir un code basura qui ressemble à une hallucination.
Voir l'originalRépondre0
SolidityStruggler
· 12-26 07:39
Putain, cette combinaison est vraiment géniale, le plan de conception se transforme directement en code utilisable, l'efficacité du développement décolle !
Voir l'originalRépondre0
GasFeeAssassin
· 12-26 07:36
Code directement à partir du design ? Si c'est vraiment stable, le mode de développement doit changer.
Récemment, j'ai testé la combinaison de Stitch avec AI Studio (Gemini), et je dois dire que l'expérience a été vraiment impressionnante.
Ce n'est plus simplement de la "programmation en langage naturel" au sens traditionnel. Le processus actuel est le suivant — Stitch génère d'abord des maquettes UI de haute qualité, puis AI Studio prend le relais pour reconnaître ces éléments visuels et sortir directement un cadre de code complet en un clic. Du design à un code utilisable, toute la chaîne est connectée.
J'ai testé cela avec un prototype de produit relativement simple, et le processus s'est avéré étonnamment fluide. La maquette est bien générée, la précision de reconnaissance est également bonne, et le code final est clair, prêt à être itéré. Cette méthode de "programmation en langage visuel" est nettement plus efficace que la génération de code à partir d'instructions en texte pur.
Si cette workflow continue à évoluer à l'avenir, l'espace d'imagination pour l'efficacité du développement est vraiment considérable.