Vous semblez confondre fondateur et CEO. Il y a aussi beaucoup de CEO qui ne se préoccupent que des résultats à court terme avant de passer à l’entreprise suivante.
L’intuition conceptuelle n’est accordée qu’à ceux qui savent pourquoi un concept est un concept, pourquoi une intuition est une intuition, pourquoi le savoir est le savoir. Il faut une compréhension d’ensemble de ce qu’est le cynisme, de sa cause, de son comment, de l’endroit où il commence, du processus et de la structure par lesquels il se forme, et des résultats et phénomènes auxquels il aboutit. Cela ne parle pas seulement de cette seule chose. De tous les concepts et de toutes les pensées. De l’époque et des pays. De tout ce qui existe dans le monde, la pensée, la réflexion, la compréhension font défaut.
Ah... bien sûr, c’est aussi important. Quand je l’ai lu pour la première fois, j’ai eu l’impression que l’auteur voulait surtout parler d’un problème plus fondamental de vitesse d’exécution du code. C’est vrai aussi que, comme vous le dites, Unity a un éditeur lent, des imports lents, et une boucle de test globalement lente...
On n’a pas vraiment l’impression qu’un CEO ayant échoué subisse une perte concrète en se reconvertissant dans une autre entreprise. Le vrai risque, ce sont plutôt les salariés qui ont dû serrer les dents pour exécuter une activité vouée à l’échec et qui finissent par voir leur département supprimé, au point que cela menace leur vie.
Le CEO et l’actionnaire principal ne sont pas toujours la même personne, si ? Quels risques de se faire retirer ce qu’il possède un CEO salarié, simple manager professionnel ?
En théorie, les packages NuGet ciblant .NET Standard 2.0 sont censés pouvoir être chargés et utilisés aussi dans l’environnement Unity… mais j’ai l’impression qu’il y a quand même pas mal d’aspects peu pratiques.
Sur les gros projets, les performances de l’éditeur ont aussi leur importance, car elles dégradent fortement l’expérience de développement. L’ouverture de l’éditeur est lente, l’import des assets aussi, et la boucle de débogage/test est lente elle aussi...
Je ne sais pas pourquoi les billets creux, remplis de bêtises lancées à la va-comme-je-te-pousse, sont de plus en plus nombreux. On dirait que c’est un phénomène mondial haha.
Le CEO est la seule personne dans l’entreprise à assumer activement le risque. Et il ne s’agit pas d’un petit risque du genre ne pas toucher son salaire. Un CEO assume le risque de tout perdre, y compris ce qu’il possède. C’est le point le plus important. Si l’IA peut aussi prendre ce risque à sa charge, alors ce sujet vaudra la peine d’être rediscuté.
Le texte est effectivement un très bon outil d’expression, et c’est aussi quelque chose de très important, mais...
On ne peut pas tout stocker sous forme de texte.
Le texte est au fond une représentation compressée. Il compresse et exprime, dans un format socialement convenu, ce que nous pouvons percevoir avec nos cinq sens (vue, ouïe, toucher, goût, odorat).
Mais s’il n’existe aucune information sur l’objet original auquel cela renvoie, alors, même si l’on stocke des données sous forme de texte, ce texte perd son sens plus tard si l’on ne connaît plus l’objet d’origine.
Nous savons ce qu’est une cassette, mais si l’on montre simplement le mot « cassette » à de très jeunes enfants nés récemment et qu’on leur demande ce que c’est, combien seraient réellement capables de répondre correctement ? Même si l’on décrit avec soin la forme, la fonction et le mode de fonctionnement d’une cassette, sera-t-on vraiment capable, dans quelques milliers d’années, de la recréer parfaitement à partir de ce seul texte ?
Dans ce genre de cas, quelques photos de cassette, des plans, ou quelques minutes de vidéo montrant comment on l’utilise peuvent être plus utiles.
Et je pense qu’il serait bon de prendre aussi en compte le fait qu’à partir de .NET 10, le problème qu’ils voulaient résoudre auparavant avec IL2CPP est désormais traité avec une approche différente, mais pertinente (Native AOT).
Bien sûr, la limite est qu’il n’y a pas de génération de code C++ modifiable en cours de route, mais au final, la production de binaires natifs sans Just-In-Time, amorcée avec .NET 8, est devenue encore plus mature avec .NET 10.
Pour cette raison, je ne pense pas que continuer à repousser la modernisation vers CoreCLR soit un bon choix pour Unity. Ou bien un remplacement plus radical, en basculant complètement vers un autre langage ou une autre base, pourrait s’avérer plus pertinent !
Comme c’est la fin de l’année... on se dit que les GitHub Stars n’étaient peut-être pas le KPI de quelqu’un.
C’est un cas où la loi de Goodhart s’applique, mais du point de vue des managers, il n’y a rien de plus pratique que de piloter avec des chiffres...
Sur une plateforme comme GitHub, les étoiles doivent avoir un poids non négligeable. GitHub ne s’intéresse donc pas à la détection des abus ? Même sur GeekNews, on se fait signaler immédiatement.
Si on interroge l’API des jours fériés du gouvernement, Noël y apparaît sous le nom de « Nativité du Christ ». Je crois que c’est son appellation officielle.
Je pense qu’une autre raison pour laquelle Mono doit absolument être modernisé vers CoreCLR, c’est que Unity n’aura probablement ni les moyens ni une forte volonté d’investir dans l’amélioration des performances de Mono. Je pense qu’il est temps de régler au plus vite l’héritage de l’époque .NET Framework. :-D
C’est vrai, mais je ne vois pas vraiment pourquoi comparer spécifiquement les performances de l’éditeur... À la rigueur, ils auraient au moins pu faire la comparaison avec une build debug ? Ou non, peut-être que ça aurait été encore moins convaincant ? Cela dit, d’un autre côté, IL2CPP comme Mono me semblent tous deux être des technologies dépassées.
Vous semblez confondre fondateur et CEO. Il y a aussi beaucoup de CEO qui ne se préoccupent que des résultats à court terme avant de passer à l’entreprise suivante.
S’il est adopté avec succès, on peut s’attendre à ce que l’optimisation des nombreux jeux indés s’améliore probablement...
L’intuition conceptuelle n’est accordée qu’à ceux qui savent pourquoi un concept est un concept, pourquoi une intuition est une intuition, pourquoi le savoir est le savoir. Il faut une compréhension d’ensemble de ce qu’est le cynisme, de sa cause, de son comment, de l’endroit où il commence, du processus et de la structure par lesquels il se forme, et des résultats et phénomènes auxquels il aboutit. Cela ne parle pas seulement de cette seule chose. De tous les concepts et de toutes les pensées. De l’époque et des pays. De tout ce qui existe dans le monde, la pensée, la réflexion, la compréhension font défaut.
Ah... bien sûr, c’est aussi important. Quand je l’ai lu pour la première fois, j’ai eu l’impression que l’auteur voulait surtout parler d’un problème plus fondamental de vitesse d’exécution du code. C’est vrai aussi que, comme vous le dites, Unity a un éditeur lent, des imports lents, et une boucle de test globalement lente...
On n’a pas vraiment l’impression qu’un CEO ayant échoué subisse une perte concrète en se reconvertissant dans une autre entreprise. Le vrai risque, ce sont plutôt les salariés qui ont dû serrer les dents pour exécuter une activité vouée à l’échec et qui finissent par voir leur département supprimé, au point que cela menace leur vie.
Le CEO et l’actionnaire principal ne sont pas toujours la même personne, si ? Quels risques de se faire retirer ce qu’il possède un CEO salarié, simple manager professionnel ?
En théorie, les packages NuGet ciblant .NET Standard 2.0 sont censés pouvoir être chargés et utilisés aussi dans l’environnement Unity… mais j’ai l’impression qu’il y a quand même pas mal d’aspects peu pratiques.
https://learn.microsoft.com/ko-kr/dotnet/…
Sur les gros projets, les performances de l’éditeur ont aussi leur importance, car elles dégradent fortement l’expérience de développement. L’ouverture de l’éditeur est lente, l’import des assets aussi, et la boucle de débogage/test est lente elle aussi...
Je ne sais pas pourquoi les billets creux, remplis de bêtises lancées à la va-comme-je-te-pousse, sont de plus en plus nombreux. On dirait que c’est un phénomène mondial haha.
Le CEO est la seule personne dans l’entreprise à assumer activement le risque. Et il ne s’agit pas d’un petit risque du genre ne pas toucher son salaire. Un CEO assume le risque de tout perdre, y compris ce qu’il possède. C’est le point le plus important. Si l’IA peut aussi prendre ce risque à sa charge, alors ce sujet vaudra la peine d’être rediscuté.
J’aimerais bien qu’ils ajoutent aussi la compatibilité NuGet (ou est-ce juste que je ne connais pas bien Unity ?).
Je me demande qui assumera la responsabilité des décisions prises par un CEO IA.
Le texte est effectivement un très bon outil d’expression, et c’est aussi quelque chose de très important, mais...
On ne peut pas tout stocker sous forme de texte.
Le texte est au fond une représentation compressée. Il compresse et exprime, dans un format socialement convenu, ce que nous pouvons percevoir avec nos cinq sens (vue, ouïe, toucher, goût, odorat).
Mais s’il n’existe aucune information sur l’objet original auquel cela renvoie, alors, même si l’on stocke des données sous forme de texte, ce texte perd son sens plus tard si l’on ne connaît plus l’objet d’origine.
Nous savons ce qu’est une cassette, mais si l’on montre simplement le mot « cassette » à de très jeunes enfants nés récemment et qu’on leur demande ce que c’est, combien seraient réellement capables de répondre correctement ? Même si l’on décrit avec soin la forme, la fonction et le mode de fonctionnement d’une cassette, sera-t-on vraiment capable, dans quelques milliers d’années, de la recréer parfaitement à partir de ce seul texte ?
Dans ce genre de cas, quelques photos de cassette, des plans, ou quelques minutes de vidéo montrant comment on l’utilise peuvent être plus utiles.
Et je pense qu’il serait bon de prendre aussi en compte le fait qu’à partir de .NET 10, le problème qu’ils voulaient résoudre auparavant avec IL2CPP est désormais traité avec une approche différente, mais pertinente (Native AOT).
Bien sûr, la limite est qu’il n’y a pas de génération de code C++ modifiable en cours de route, mais au final, la production de binaires natifs sans Just-In-Time, amorcée avec .NET 8, est devenue encore plus mature avec .NET 10.
Pour cette raison, je ne pense pas que continuer à repousser la modernisation vers CoreCLR soit un bon choix pour Unity. Ou bien un remplacement plus radical, en basculant complètement vers un autre langage ou une autre base, pourrait s’avérer plus pertinent !
Comme c’est la fin de l’année... on se dit que les GitHub Stars n’étaient peut-être pas le KPI de quelqu’un.
C’est un cas où la loi de Goodhart s’applique, mais du point de vue des managers, il n’y a rien de plus pratique que de piloter avec des chiffres...
> Unity n’a probablement ni les moyens ni une réelle volonté d’investir dans l’amélioration des performances de Mono.
Je suis moi aussi tout à fait d’accord sur ce point...
Manus - un agent IA polyvalent qui relie réflexion et action
Dans les commentaires sur Hacker News, l’évaluation de ce rachat ne semble pas très positive.
Sur une plateforme comme GitHub, les étoiles doivent avoir un poids non négligeable. GitHub ne s’intéresse donc pas à la détection des abus ? Même sur GeekNews, on se fait signaler immédiatement.
Si on interroge l’API des jours fériés du gouvernement, Noël y apparaît sous le nom de « Nativité du Christ ». Je crois que c’est son appellation officielle.
Je pense qu’une autre raison pour laquelle Mono doit absolument être modernisé vers CoreCLR, c’est que Unity n’aura probablement ni les moyens ni une forte volonté d’investir dans l’amélioration des performances de Mono. Je pense qu’il est temps de régler au plus vite l’héritage de l’époque .NET Framework. :-D
C’est vrai, mais je ne vois pas vraiment pourquoi comparer spécifiquement les performances de l’éditeur... À la rigueur, ils auraient au moins pu faire la comparaison avec une build debug ? Ou non, peut-être que ça aurait été encore moins convaincant ? Cela dit, d’un autre côté, IL2CPP comme Mono me semblent tous deux être des technologies dépassées.