PCB

De la conception PCB aux nanoparticules, comment faire de grandes découvertes

Ce cas de réussite dans la conception de circuits imprimés est également l’histoire de l’une des plus grandes réussites scientifiques du siècle, obtenue grâce au travail acharné de nombreuses personnes persévérantes et compétentes et à l’utilisation de technologies puissantes et sophistiquées.

L’histoire commence il y a plus d’un siècle, en 1913, lorsque les premières théories sur la mécanique quantique ont posé les bases de l’une des plus grandes révolutions dans la façon dont nous voyons le monde. Avec la théorie de la relativité d’Albert Einstein, présentée en 1905, la théorie quantique de Niels Bohr a permis de décrire les phénomènes naturels fondamentaux de façon plus réaliste que la physique classique. Pour résumer simplement, la mécanique quantique – née à l’époque – décrit le rayonnement et la matière à la fois comme un phénomène ondulatoire et comme une entité particulaire. Elle est à l’opposé de la mécanique classique, dans laquelle, par exemple, la lumière est décrite uniquement comme une onde ou l’électron uniquement comme une particule.

Entre Einstein et Bohr s’est développé un débat devenu légendaire, et qui a été en grande partie résolu dans la seconde moitié des années 1960 avec l’élaboration du Modèle Standard, une théorie de la physique décrivant les caractéristiques des interactions fondamentales au sein de la matière. Le Modèle Standard comptait parmi ses hypothèses fondamentales le rôle joué par le boson de Higgs, un type de particule qui se trouve à la base de toute matière. Le boson de Higgs, théorisé en 1964, n’a finalement été réellement « vu », et donc démontré, qu’en 2012, grâce aux expériences menées par l’accélérateur LHC au CERN à Genève.

Téléchargez l’ebook sur un exemple réussi de conception de cartes électroniques complexes

``CAEN. De la conception PCB aux nanoparticules, comment faire de grandes découvertes.``

De Viareggio à Genève, à la recherche des secrets de la matière

Le LHC du CERN est un accélérateur de particules d’un diamètre de 27 km qui sert à étudier la structure de la matière à l’échelle subnucléaire, c’est-à-dire à chercher des réponses aux questions fondamentales sur la réalité. Imaginez à quel point une telle machine peut être sophistiquée ! Eh bien, une grande partie de l’équipement électronique du LHC a été fabriquée par CAEN S.p.A. à Viareggio, en Toscane.

CAEN, spin-off de l’Institut National de Physique Nucléaire, est le fournisseur d’électronique des expériences menées dans le domaine de la physique les plus importantes. La société fournit les instruments électroniques les plus avancés pour les détecteurs de particules ou de radiations depuis plus de 40 ans. Grâce à des relations en étroite collaboration avec des laboratoires de recherche, dont le CERN, elle produit des instruments pour étudier des phénomènes tels que la physique des neutrinos ou l’étude de la matière noire, mais aussi pour réaliser des instruments dans le domaine industriel.

Les produits typiques de CAEN sont les alimentateurs électriques haute et basse tension pour les expériences en physique des particules et les équipements de traitement numérique des signaux. Ces appareils sont fabriqués grâce à un département de R&D, point fort de cette entreprise, composé de 40 physiciens et ingénieurs. La R&D de CAEN est précisément l’élément qui permet de mettre l’électronique au service d’une expérimentation scientifique aussi avancée que celle sur les nanoparticules.

Le besoin d’outils de conception avancés

L’autre exigence nécessaire à la réalisation des dispositifs sophistiqués de CAEN est l’utilisation d’outils de conception capables de gérer des cartes électroniques aux caractéristiques très poussées. « Lorsque notre équipe de R&D a commencé à concevoir des cartes à haute vitesse avec des mémoires DDR4 et des signaux allant jusqu’à 8 gigahertz » – expliquent les responsables de la conception hardware dans l’entreprise – « nous n’avons pas pu obtenir la confirmation de la CAO qu’elles fonctionnaient correctement. Au départ, nous nous sommes tournés vers un service externe utilisant HyperLynx pour intégrer la simulation dans le flux de conception ».

L’équipe de R&D a donc introduit PADS Professional à certains postes, car les autres outils de conception de PCB ne pouvaient pas traiter des projets aussi complexes. « En concevant avec PADS Professional, nous avons pu trouver une interactivité beaucoup plus rapide. C’est surtout la taille du projet qui a justifié un choix tel que l’introduction d’un nouvel outil dans l’entreprise. Un investissement initial dans la formation était nécessaire, mais justifié par une vitesse de conception plus importante. Dans PADS Professional, par exemple, les règles sont plus faciles à établir pour la définition des contraintes des signaux à haute vitesse. Mais nous avons également constaté des différences significatives en ce qui concerne l’élaboration des plans d’alimentation et le routage. »

L'accélérateur LHC du Cern

L'accélérateur LHC du Cern

Quand PADS Professional fait la différence

Le cas de CAEN est particulièrement significatif en ce qui concerne les différences entre les outils disponibles sur le marché aujourd’hui. Si, par exemple, d’autres outils facilitent la première approche pour leur interface conviviale, lorsque le projet devient un peu plus complexe, il est beaucoup plus avantageux d’adopter un outil comme PADS Professional. La possibilité de concevoir plus rapidement se traduit immédiatement par une baisse des coûts et la possibilité d’arriver plus tôt sur le marché.

D’un point de vue strictement technique, le cas que nous avons décrit rappelle notamment quatre caractéristiques qui font de PADS Professional un produit unique.

  1. La base de données intégrée par projet, elle assure l’intégrité et la continuité des données entre le schéma et le PCB et tout au long du flot de conception électronique, grâce à un échange de données synchrone.
  2. Le système de règles de conception avancées, il repose sur une structure de définition de règles physiques et électriques basée sur un tableur et définie au niveau de la base de données. Cela garantit une définition totale des règles de conception, grâce à une application unique accessible depuis l’ensemble du flot de conception électronique.
  3. La gestion du placement pour les groupes logiques, elle permet de ne plus travailler sur chaque composant, mais de travailler sur le placement des PCB en fonction des groupes logiques définis dans la schématique.
  4. Des simulateurs d’intégrité du signal « pre et post-layout» intégrés, ils sont basés sur la technologie Mentor HyperLynx mondialement reconnue. Ils permettent de contrôler la qualité des signaux tant dans la phase de spécification que dans la réalisation du PCB, jusqu’aux plus hautes fréquences utilisées aujourd’hui.

Voici donc la révélation d’un petit secret derrière une grande découverte scientifique. Pour atteindre les objectifs les plus ambitieux, il faut des personnes compétentes, motivées et imaginatives. Mais aussi des technologies à la hauteur de la tâche. Pour y parvenir, tout doit être au plus haut niveau, à commencer par le logiciel utilisé pour la conception.

Scarica ebook storia di successo PCB Design

Ebook

CAEN. De la conception PCB aux nanoparticules, comment faire de grandes découvertes.

Cet eBook raconte l’histoire d’un cas de réussite dans la conception de PCB appliquée à des projets complexes. Grâce à ce texte, vous pouvez en apprendre davantage sur :

  • comment une petite équipe de conception peut disposer d’un outil logiciel très sophistiqué mais facile à utiliser ;
  • comment assurer l’intégrité et la continuité des données entre le schéma et le PCB tout au long du flux électronique ;
  • comment disposer d’un système de règles de conception avancées et en faire le meilleur usage ;
  • comment gérer un planificateur de positionnement pour les groupes logiques ;
  • comment disposer de simulateurs d’intégrité des signaux « pre et post-layout » intégrés.
Leggi tutto...
Celine WagnerDe la conception PCB aux nanoparticules, comment faire de grandes découvertes

La conception de PCB flex-rigid à la portée de tous

L’adoption de la technologie flex-rigid est une tendance dans l’industrie électronique. Ceci est dû à la nécessité d’interconnecter les éléments au sein de dispositifs de plus en plus petits, fiables et en même temps économiques. C’est particulièrement vrai aujourd’hui pour des secteurs tels que l’IoT, les appareils portables, les communications, l’automobile et le médical. Le PCB flex-rigid lui-même a un potentiel économique important : il devrait générer des revenus de 16,5 milliards de dollars d’ici 2021, soit une augmentation de 21% sur la période 2016-2021.

8 raisons de la croissance de la demande de PCB flex-rigid

L’intérêt pour cette technologie est motivé par au moins huit raisons très importantes :

  1. La fiabilité
  2. Moins d’étapes requises pour l’assemblage
  3. La compatibilité avec des températures plus élevées
  4. Une meilleure intégrité du signal
  5. Des économies à long terme sur les coûts des matériaux
  6. Moins de composants à gérer dans la nomenclature
  7. Moins d’espace requis
  8. Permet des conceptions qui seraient impossibles avec des PCB rigides

Malgré de nombreux avantages, les concepteurs n’optent pas toujours pour ce type de technologie. Cela est dû, d’une part, à un manque de connaissances et d’expérience en la matière et, d’autre part, au manque d’instruments adéquats pour la mettre en place.

Les caractéristiques requises pour un projet flex-rigid

Les outils de conception doivent avoir certaines caractéristiques pour vous permettre de mener à bien un projet flex-rigid :

  • Un stack-up comprenant également des couches flexibles
  • Des exigences supplémentaires pour les pastilles au niveau du cuivre et de la soudure
  • Le besoin de larmes de soudure (teardrops)
  • Des besoins de pistes courbées
  • Des exigences des zones de pliage (bend areas)
  • La possibilité de voir les parties mécaniques et électriques simultanément, pour simplifier le processus de conception
  • Des exigences particulières pour la production
  • La prise en compte de couches supplémentaires (stiffener, cover lay, adhesive), si nécessaire

Toutes ces possibilités sont incluses dans un outil comme PADS Professional, le plus complet pour la conception de flex-rigid. Les outils dédiées à la technologie flex-rigid de PADS Professional permettent non seulement d’éviter les itérations de conception et les prototypes physiques, mais également de développer des produits avec les meilleures performances.

Vidéo à la demande

Concevoir des circuits imprimés flex-rigid avec PADS Professional

La technologie flex-rigid est essentielle dans certaines conditions: espaces restreints, flexibilité, circuits uniques. Découvrez les caractéristiques de PADS Professional pour la conception de circuits imprimés flex-rigid et comment il peut répondre à ces exigences.

Leggi tutto...
Celine WagnerLa conception de PCB flex-rigid à la portée de tous

Conception de circuit imprimé, 10 raisons de choisir PADS Professional [infographie]

Quand vient le moment de choisir le logiciel de conception de circuits imprimés le plus approprié, les concepteurs de circuits électroniques doivent évaluer quelle est la meilleure option répondant à leurs besoins. Les CAO de PCB Design ne sont pas tous les mêmes. Actuellement, pour les concepteurs indépendants et les petits groupes de travail, le meilleur choix est sans aucun doute PADS Professional, la suite d’outils développée par Siemens pour gérer l’ensemble du cycle de conception des produits électroniques.

Nous avons préparé une infographie expliquant brièvement les 10 raisons de choisir PADS Professional, définies sur la base de l’expérience avec nos clients. Téléchargez l’infographie et découvrez tous les avantages de PADS Professional!

Cliquez sur l’image afin de télécharger l’infographie :

infographie pads professional

Leggi tutto...
CadlogConception de circuit imprimé, 10 raisons de choisir PADS Professional [infographie]

Design for Manufacturing: Lacroix choisit Siemens Valor NPI et entre dans le future de l’électronique

LACROIX Electronics, l’un des plus importants sous-traitants français, a annoncé l’adoption de la solution Siemens Valor NPI au niveau mondial. Grâce à ce logiciel, il est possible d’accélérer le processus de lancement de nouveaux produits et variantes (NPI) le plus efficacement possible en termes de qualité, coût et délai. Valor NPI permet de valider la conception du projet PCB en cohérence avec les capacités du fabricant et les meilleures pratiques de l’industrie. L’objectif est de garantir des produits de haute qualité aux meilleurs coûts dès le premier essai.

À l’occasion de Productronica 2019, notre client LACROIX Electronics, fier de son choix, a publié un communiqué de presse que nous vous rapportons intégralement ci-dessous. Nous sommes fiers de les accompagner dans la mise en œuvre de l’usine du futur.

Communiqué de presse

8 novembre 2019.

LACROIX Electronics poursuit sa mutation et digitalise le Design For Manufacturing (DFM)

LACROIX Electronics, spécialiste de la sous-traitance électronique, annonce le déploiement de la solution VALOR NPI de Siemens sur l’ensemble de ses sites. La mission de ce logiciel est de diminuer les écarts entre la conception d’une carte électronique réalisée en bureau d’études et les capacités de production de masse en usine de cette dernière. Avec 1000 règles de conception traitées automatiquement en un temps record, l’identification de pistes d’amélioration et une meilleure allocation du temps des équipes, la solution permet une plongée dans le grand bain de l’industrie électronique du futur.

Le DFM : à la recherche du « best match » entre conception et production

« Le processus NPI (Introduction de Nouveau Produit) est critique dans la performance industrielle du secteur électronique tant d’un point de vue des coûts, de la qualité que du temps. La solution Siemens VALOR NPI est un outil DFM qui permet, dès la conception, de prévenir d’éventuels problèmes qui pourraient survenir au cours de la production. Le principe est très simple : le logiciel inclut plus de 1000 contrôles prédéfinis qui peuvent être effectués sur le projet, à la fois au niveau de la fabrication et au niveau de l’assemblage du circuit imprimé. » explique Alexis Morlière, directeur général de Cadlog France, le partenaire de LACROIX Electronics pour implémenter la solution.

Avec l’automatisation de ce processus de concordance, les techniciens allouent désormais plus de 75% de leur temps à des actions à forte valeur ajoutée, dans des proportions inversées à la situation antérieure. Grâce au temps gagné, les équipes DFM accompagnent plus largement les clients en leur proposant davantage de solutions pour obtenir le meilleur équilibre qualité-coût-délais. Enfin, la solution permet de sécuriser l’expertise de l’entreprise en transposant un grand nombre de règles de production acquises par l’expérience dans une base de données intelligente.

Une solution qui confirme le positionnement de LACROIX Electronics à la pointe de l’industrie 4.0

Depuis un an, de nombreux ateliers de paramétrages de la base de données ont impliqué les équipes de LACROIX Electronics ; ateliers qui vont perdurer dans le temps afin de poursuivre le cercle vertueux de l’entreprise apprenante. LACROIX Electronics est parmi les premiers EMS de sa catégorie à avoir déployé cette solution. Cette avancée s’inscrit pleinement dans la stratégie industrie 4.0 de LACROIX Electronics dont le porte-étendard est l’usine SYMBIOSE qui verra le jour en 2021, à Beaupréau (Maine-et-Loire).

«  La solution VALOR NPI est une contribution majeure à l’usine du futur de LACROIX Electronics. Cet outil nous permet dès maintenant de bonifier les designs pour en améliorer leur qualité de fabrication. Je suis convaincu que son utilisation durable aura un impact significatif sur la capitalisation du savoir-faire, l’amélioration du service rendu aux clients et l’accélération de la mise en production. » explique Benjamin Gauchenot, VP Qualité et Opérations chez LACROIX Electronics.

LACROIX Electronics sera présent au salon Productronica à Munich, du 12 au 15 novembre, et interviendra notamment lors d’une conférence consacrée au DFM.

A propos de Lacroix Electronics

Classé dans le TOP 10 des EMS européens (Electronics Manufacturing Services), LACROIX Electronics est spécialisé dans la sous-traitance électronique pour les secteurs industriel, domotique, santé, automobile, avionique civile et défense. Avec plus de 3300 collaborateurs, LACROIX Electronics a réalisé en 2018 un chiffre d’affaires de 337,5 millions d’euros ventes intragroupe incluses.

Fort de ses 4 usines et de son bureau d’études, LACROIX Electronics propose des solutions industrielles globales depuis la conception jusqu’à la production en série d’ensembles et de sous-ensembles électroniques en Europe et au Maghreb. Sa récente alliance avec FIRSTRONIC LLC permet également à LACROIX Electronics d’accompagner ses clients sur le continent nord-américain.

LACROIX Electronics est une activité de LACROIX Group, un équipementier technologique international qui a réalisé 468 millions € de chiffre d’affaires en 2018 et compte 4000 employés.

En concevant et industrialisant les équipements et technologies connectées et innovantes, LACROIX Group permet à ses clients de rendre le monde plus intelligent et responsable, et de mieux appréhender l’innovation électronique, les flux de données, de personnes, d’eau et d’énergie.

Pour en savoir plus, visitez les sites : www.lacroix-electronics.fr et www.lacroix-group.com

A propos de Cadlog

Cadlog est le partenaire technologique de l’industrie électronique, travaillant dans le secteur depuis plus de 30 ans. Il propose, en collaboration étroite avec des partenaires – notamment Siemens et Mentor Graphic – des solutions pour améliorer les performances industrielles de ses clients depuis la conception jusqu’à la fabrication en passant par l’industrialisation.

CONTACT PRESSE GIOTTO – 06 63 12 69 05 – m.levesque@giotto-cr.com

 

Télécharger le communiqué de presse

Leggi tutto...
CadlogDesign for Manufacturing: Lacroix choisit Siemens Valor NPI et entre dans le future de l’électronique

Obtenir de meilleurs produits à moindre coût grâce à une conception basée sur la simulation

La conception basée sur la simulation consiste en l’utilisation de la simulation (électronique ou mécanique) par les concepteurs aux premières étapes du processus de conception. Dans cet article, nous verrons comment cela permet d’obtenir des produits plus innovants, une plus grande probabilité que tout fonctionne du premier coup, et moins de risques que des changements importants soient nécessaires aux étapes avancées du processus de conception.

Aujourd’hui, le fait que la priorité numéro une des concepteurs soit de lancer rapidement des produits innovants sur le marché n’est plus un secret. Auparavant, cela impliquait d’achever le projet initial et de le livrer à un groupe d’experts en simulation afin de gérer les itérations et l’optimisation du projet. Bien que l’expérience des experts soit toujours appréciée, leur contribution à la phase finale du projet est de plus en plus devenue un goulot d’étranglement.

La tendance est aujourd’hui différente. Poussés par les pressions et les défis du marché, les meilleurs concepteurs du secteur ont de plus en plus recours à la simulation lors de la phase de conception.

Les pressions et les défis qui motivent le recours à la conception basée sur la simulation

Les pressions et les défis quotidiens de la production poussent les concepteurs à utiliser la simulation plus tôt dans le processus de conception et à charger l’équipe de conception de sa réalisation.

Les fabricants sont sous pression pour mieux comprendre le comportement du produit dès la phase de conception. La nécessité d’une plus grande innovation est fondamentale et constitue un catalyseur pour la création de nouvelles opportunités sur le marché. Outre la nécessité d’innover, il existe une pression énorme pour différencier les produits en termes de qualité, de fiabilité et de fonctionnalité.

Il y a moins de temps pour développer des produits innovants, en raison de programmes de développement plus courts et de la nécessité d’accélérer la mise sur le marché. Les clients réclament également des produits à faible coût, même s’ils ont besoin à la fois de fonctionnalités plus riches et « intelligentes ».

À ces pressions s’ajoutent les nombreux défis que doivent relever les concepteurs. Les produits deviennent de plus en plus complexes, mais la tolérance aux défauts de conception est également moins grande. Bien que la pression exercée pour créer des produits différenciés soit élevée, il est de plus en plus difficile de satisfaire cette différenciation, en particulier face à des ressources de développement limitées. De plus, les concepteurs doivent lancer des produits qui réduisent les coûts liés cycle de vie (garantie, rappel, etc.).

Pour atténuer la tension créée par de tels pressions et défis, les meilleurs concepteurs savent comment réagir. Confrontés à des délais de conception plus longs, à des délais de mise sur le marché plus courts et à des exigences de qualité croissantes, ils ont découvert un meilleur moyen d’innovation produit : la conception basée sur la simulation.

Pourquoi les « Top Entreprises » adoptent une conception basée sur la simulation 

Le principe de la conception basée sur la simulation est simple. Les concepteurs étant plus nombreux que les experts en simulation – dans un rapport de 5 pour 1 ou même de 10 pour 1 – le groupe de spécialistes en simulation est devenu un goulot d’étranglement dans le processus de conception. Les « Top Entreprises » du secteur ont donc réagi en introduisant la simulation directement dans l’environnement de conception. Le principe est le même que celui exprimé dans le célèbre proverbe : « Donnez un poisson à un homme, il mangera un jour. Apprenez-lui à pêcher, il mangera toute sa vie« . En pratique, la ressource des spécialistes de la simulation est mieux utilisée lorsqu’elle est un levier pour les concepteurs, afin de les conseiller pendant qu’ils simulent eux-mêmes, plutôt que de le faire à leur place.

D’après une étude du groupe Aberdeen, que nous vous mettons à disposition en téléchargement gratuit, il apparaît que 87% des « Top Entreprises » de la catégorie ont utilisé la simulation, contre 75% deux ans plus tôt. De plus, la value proposition de la simulation s’est déplacée vers les phases de conception du développement de produit.

Parmi les « Top Entreprises » de la catégorie, l’impact positif de la simulation s’est déplacé à gauche dans les phases de développement de produits axé sur la conception. Dans ces phases, l’impact positif maximum de la simulation est atteint, avec un pic dans la phase de conception détaillée au niveau des composants. Parmi tous les autres types d’entreprises, le pic reste en phase de vérification et de test. 

Avec une conception basée sur la simulation, les « Top Entreprises » garantissent le succès de différentes manières. Dans ce nouveau modèle centré sur le concepteur, les experts en simulation travaillent beaucoup avec les concepteurs lorsqu’ils ceux-ci simulent seuls. De plus, les « Top Entreprises » acquièrent les compétences des experts CAE et les rendent plus accessibles aux concepteurs. Enfin, 73% des « Top Entreprises » vérifient d’abord la conception du produit, dans le processus de développement, au moyen d’une modélisation informatique. Cette dernière étape est essentielle pour garantir que le concept du produit fonctionne correctement du premier coup.   

Alors que les « Top Entreprises » se tournent vers la conception basée sur la simulation, elles veillent également à recueillir et à partager les meilleures pratiques et compétences en matière de simulation, et à les mettre à la disposition des non-experts. Cela encourage et permet aux non-experts de se mettre à jour sur les techniques de simulation modernes. 

Les avantages de la conception basée sur la simulation

La conception basée sur la simulation porte-t-elle ses fruits ? Le rapport du groupe Aberdeen suggère fortement qu’il en est ainsi. Les « Top Entreprises » du secteur qui mettent en œuvre une conception basée sur la simulation présentent des avantages significatifs en termes de coûts de développement de produit, de délai de mise sur le marché et de qualité. 

Les meilleurs concepteurs qui implémentent la simulation au début du processus de conception surpassent facilement tous les autres, en ce qui concerne le coût du produit, son lancement et ses objectifs en termes de revenus et de qualité. Ce succès est directement attribuable à la volonté de simulation des concepteurs et à leur capacité à itérer et à innover. Cela se traduit par des projets de produits optimisés et innovants.

Les « Top Entreprises » de la catégorie ont également économisé du temps d’itération du produit, réduisant ainsi le développement de prototypes et les délais de développement.

Comme le savent tous les ingénieurs en conception, le coût d’un faux pas dans la conception est très élevé. Plus tard un problème de conception se pose, plus il est coûteux de le résoudre ou de le retravailler. La conception basée sur la simulation résout ce problème en déplaçant la simulation aux étapes précédentes dans la conception du produit. Cela rapporte beaucoup, avec une augmentation de 21% du nombre d’ordres de modification technique (ECO) émis après la sortie de la production. Tous les autres, qui n’ont pas implémenté de conception basée sur la simulation, ont connu une augmentation de 3% de l’ECO. Grâce à l’augmentation du prototypage virtuel, les meilleurs concepteurs du secteur ont construit 27% de prototypes physiques en moins. Enfin, les « Top Entreprises » ont amélioré leur temps de développement de 29%.

Conclusions et recommandations clés

Aberdeen Group recommande aux concepteurs d’atteindre leurs objectifs grâce à une conception basée sur la simulation afin de respecter au mieux les objectifs de délai de mise sur le marché, de qualité et de coût, et de contrer les pressions exercées sur la production.

  • Adopter la conception basée sur la simulation pour l’innovation de produit. La raison pour laquelle les meilleurs concepteurs ont réduit leurs prototypes physiques de 27% est due au fait qu’ils ont opté pour des prototypes virtuels et des tests virtuels. Cela leur a permis d’explorer des centaines d’itérations de conception (ou plus) et de se concentrer sur les conceptions les plus innovantes au potentiel d’innovation le plus élevé.
  • Adopter la conception basée sur la simulation pour un meilleur temps de mise sur le marché. Les meilleurs concepteurs de la catégorie ont amélioré leurs temps de développement de 29%, soit six fois plus que tous les autres. Les grandes entreprises ont également atteint les objectifs de délai de mise sur le marché 76% du temps, soit 17% de plus que toutes les autres.
  • Adopter la conception basée sur la simulation pour une qualité supérieure. 77% des meilleures entreprises de la catégorie ont atteint leurs objectifs de qualité produit. En outre, les produits « Top » étaient plus susceptibles de fonctionner correctement dès la première fois et moins susceptibles de nécessiter des changements, car les « Entreprises Top » avaient amélioré leurs ECO de 21% après leur mise en production.
  • Adopter la conception basée sur la simulation pour réduire les coûts. 71% des concepteurs des « Top Entreprises » ont atteint leurs objectifs de coûts du produit, contre 63% pour les autres.

thomas edison

Thomas Edison a dit un jour que le génie était « 1% d’inspiration et 99% de transpiration ». La conception basée sur la simulation met à jour la maxime d’Edison, permettant aux concepteurs d’innover via le prototypage virtuel et les tests virtuels. Cette nouvelle façon de faire élimine la « transpiration » du prototypage physique. Les concepteurs sont désormais libres de tester des centaines (voire des milliers) de solutions de remplacement jusqu’à ce qu’ils soient « inspirés » par le choix de conception de produit le plus innovant.

Edison a essayé plus de 1 000 prototypes physiques de l’ampoule à incandescence, avant de découvrir que le modeste filament de carbone à base de bambou produisait une ampoule d’une durée supérieure à 1 200 heures. En choisissant une conception basée sur la simulation, les ingénieurs tirent le meilleur parti des deux mondes : un produit innovant qui répond également aux objectifs de délai de mise sur le marché, de coût et de qualité.

Livre blanc

Le rapport Aberdeen sur la conception basée sur la simulation

Le texte complet de « The Benefits of Simulation-Driven Design », une étude du groupe Aberdeen sur l’adoption de la conception basée sur la simulation (Simulation-Driven Design). Cette approche nécessite que les concepteurs eux-mêmes traitent la simulation dès les phases initiales du projet et soient en mesure d’essayer différentes variantes et de voir celles qui fonctionnent le mieux, sans avoir à recourir à des prototypes physiques. Le document explique en détail comment les « Top Entreprises » du secteur électronique peuvent réduire les coûts et les délais de lancement de produits grâce à une conception basée sur la simulation.

Leggi tutto...
Celine WagnerObtenir de meilleurs produits à moindre coût grâce à une conception basée sur la simulation

Exemples de collaboration multidisciplinaire dans la conception de circuits imprimés

Les produits électroniques sont conçus en utilisant un système de développement, souvent très complexe car hétérogène, au sein duquel travaille une multitude de disciplines différentes insérées dans des équipes de travail spécialisées. Pour que le produit soit compétitif, à la fois en termes de réalisation et de coût, ce système doit être optimisé afin que la collaboration entre les différentes disciplines soit maximale et aboutisse aux meilleurs résultats. Il est donc essentiel que les différents domaines – mécanique, électronique et électrique – travaillent ensemble efficacement.

Cela nécessite de dépasser l’approche traditionnelle, basée sur la division entre des groupes travaillant généralement de manière autonome et ne se réunissant qu’à la fin du processus pour valider le système global. C’est un problème culturel, mais pas uniquement. En effet, ceux qui ont essayé de collaborer ont souvent dû faire face à l’incompatibilité des outils, à l’absence de plateformes de révision communes et à des contraintes dues à des systèmes incompatibles entre eux.

Le prix d’une collaboration inefficace

Les organisations traditionnelles créent généralement des « silos » distincts pour chaque spécialisation de la conception, où la collaboration est basée sur des processus manuels lents. Ceux-ci incluent des systèmes tels que des tests sur papier, l’utilisation du téléphone, des emails, etc, sans qu’il ne soit possible de maintenir un flux numérique continu entre les différentes disciplines. Mettre un produit complexe sur le marché plus rapidement nécessite une intégration plus complète du matériel électronique, des logiciels, du câblage et de l’infrastructure mécanique. Ces échanges multi-domaines plus rapides sont nécessaires afin d’optimiser et de différencier le produit final.

De plus, l’augmentation du nombre d’équipes réparties géographiquement fait davantage ressortir les lacunes des processus de collaboration existants.

La séparation entre différentes disciplines dans la conception de circuits imprimés

Il est clair que ce type d’organisation engendre un niveau d’intégration insuffisant, dans lequel les outils de collaboration sont constitués de normes inappropriées au contexte, tels que Powerpoint, Excel et Visio, ou de certaines automatisations personnalisées. Dans les domaines les plus particuliers de la conception des PCB des formes de collaboration spécifiques se sont développées, mais elles restent insuffisantes pour une collaboration entre différentes disciplines.

Selon une étude réalisée par Aberdeen, 53% des entreprises ayant des performances moyennes ont besoin de ressources supplémentaires pour atteindre leurs objectifs lors du lancement de nouveaux produits sur le marché. Dans environ un tiers de ces entreprises (32%), les managers estiment que le manque de collaboration est l’une des principales causes de l’échec des objectifs.

Une collaboration « optimisée » nécessite une transformation qui, à travers un flux numérique continu, affecte toutes les disciplines et tous les processus, depuis la définition des exigences du produit jusqu’à la production. Cette transformation réduit le besoin d’interventions manuelles, favorise la collaboration et améliore la transparence entre les différentes disciplines. De plus, cette approche supprime les barrières entre les équipes et les disciplines pour permettre une conception simultanée, dans laquelle l’électronique est intégrée au flux de travail global de développement du produit. Cela permet aux entreprises d’arriver sur le marché plus rapidement et avec de meilleurs produits.

Dans les exemples suivants, nous verrons comment la continuité du flux numérique permet à différents spécialistes de collaborer déjà au sein de leurs propres applications.

Collaboration ECAD/MCAD

La collaboration entre la CAO électronique et la CAO mécanique est parmi les plus importantes. Elle est rendue fluide et immédiate lorsque les deux types d’outils sont intégrés, comme Xpedition avec NX ou PADS avec Solid Edge par exemple. L’intégration permet d’optimiser le produit en fonction de la forme, sur la base de la qualité et de la performance. Les équipes peuvent travailler sur différents scénarios de conception avant d’arriver à la version finale. Lorsque les concepteurs électroniques peuvent utiliser le modèle 3D, toutes les interférences sont contrôlées directement, sans étape supplémentaire.

Dans cette courte vidéo, nous pouvons voir un exemple d’intégration entre Xpedition et NX :

Collaboration électronique/câblage

Un autre exemple est la collaboration entre l’électronique et le câblage électrique associé. Un câblage électrique peut relier plusieurs circuits imprimés dans un même boîtier ou encore le câblage peut être plus complexe et relier plusieurs systèmes entiers les uns avec les autres dans des secteurs tels que l’aérospatiale, l’armée, l’automobile ou le secteur industriel par exemple.

Les solutions Siemens permettent aux concepteurs de systèmes de définir des modèles fonctionnels à partir de prérequis, de les diviser en architectures EE (Electrique/Electronique) optimisées et donc de co-concevoir chaque domaine dans des environnements intégrés. Il est également possible de gérer et d’optimiser des systèmes matériels complexes avec plusieurs cartes et connexions via des connecteurs et des câbles, ainsi que des systèmes matériels distribués connectés au câblage.

Dans le cas de systèmes multi-cartes, il est nécessaire de concevoir le câblage entre les cartes et vers les éléments électromécaniques externes, tels que les capteurs et les actionneurs. Le câblage a la caractéristique d’être bidirectionnel et intégré à la CAO mécanique. Son rôle est fondamental afin d’assurer une définition précise et fiable des chemins des signaux et afin d’optimiser le poids et la taille des appareils.

Dans cette vidéo, nous pouvons voir un exemple de conception de câblage dans Xpedition :

Autres domaines de collaboration

D’autres formes de collaboration multidisciplinaire peuvent inclure les cas suivants :

Co-conception PCB / FPGA

L’optimisation I/O de FPGA multiples est possible dans le contexte du PCB, dans un environnement “correct-by-construction” qui tire parti des règles du fabricant de FPGA.

Optimisation du package PCB / IC

Il est possible d’optimiser l’I/O des circuits imprimés dans un processus efficace et prévisible et d’obtenir un flux flexible et multidirectionnel pour l’optimisation de die, de boîtiers ou de circuits imprimés.

Design to manufacturing

Il est possible d’obtenir un processus simplifié de lancement de nouveaux produits (NPI), facilité par une validation DFM simultanée et un modèle de produit complet pour une intégration directe dans les processus de production.

Téléchargez un ebook sur les meilleures pratiques basées sur la vision de Siemens :

Les Meilleures pratiques pour les responsables de la conception des circuits imprimés

Toutes les données, en français, issues du rapport du groupe Aberdeen sur les caractéristiques des groupes de projets qui obtiennent les meilleurs résultats en termes de respect des délais, de budget et de succès sur le marché.

Leggi tutto...
CadlogExemples de collaboration multidisciplinaire dans la conception de circuits imprimés

PCB Design, qu’est-ce que le Design Rule Checking (DRC), avec un cas pratique d’application

Le Design Rule Checking (DRC) est une méthode qui permet une vérification du respect des règles de conception. Ces règles sont des contraintes intrinsèques imposées à une étude mais aussi des règles extérieures de bonnes pratiques pour garantir que la conception fonctionnera correctement et pourra être produite en toute sécurité.  “Signoff” est un terme qui signifie que l’ensemble des règles à été respecté dans une conception.

Lorsque l’on parle de Design Rule Checking, l’enjeu est la possibilité d’éviter les itérations du projet comme par exemple de devoir refaire un prototype car des problèmes sont survenus lors de la première tentative. Ces étapes peuvent coûter très cher, parfois des dizaines de milliers d’euros. Pour beaucoup de concepteurs ce genre de contrôles n’est pas une habitude, surtout dans les entreprises de taille plus réduite qui risquent ainsi d’être mises hors-jeu dans un marché toujours plus concurrentiel.

La solution PADS Professional répond parfaitement à ce type d’exigence car elle inclut le module HyperLynx DRC. HyperLynx DRC est un logiciel rendant possible ce qui semblait avant impossible : identifier systématiquement et automatiquement les erreurs qu’une inspection visuelle ne pourrait jamais voir.

Avec HyperLynx DRC, PADS Professional aide le concepteur à s’assurer que la conception respecte les contraintes appropriées pour une multitude de règles de conception électriques différentes : intégrité du signal analogique (SI), intégrité des alimentations (PI) et interférences électromagnétiques (EMI).  Plus de 70 règles paramétrables sont présentes pour permettre au concepteur d’identifier et de corriger les violations rencontrées en lieu et place d’une inspection visuelle propice aux oublis et erreurs.

Un cas d’application du DRC

Dans ce chapitre nous verrons un cas d’application réel de l’utilisation d’HyperLynx DRC au sein de PADS Professional. Cet exemple concerne la BeagleBone Black, un ordinateur  monocarte open source à faible consommation produit par Texas Instruments, très apprécié des développeurs et des passionnés d’informatique. La carte est constituée du processeur TI Sitara, de 512 Mb de RAM DDR3 et de 2 GB de mémoire flash ainsi que d’un certain nombre d’interfaces physiques et d’autres fonctionnalités.

Beaglebone Black

La Beaglebone Black

Vérification des règles de base avec HyperLynx DRC dans PADS Professional

Une fois que le projet est chargé dans HyperLynx DRC, une fenêtre de contrôle des analyses montre les règles qui sont divisées en catégories. Pour déterminer lesquelles sont importantes, le concepteur crée une liste d’objets personnalisés pour inclure les signaux liés aux GPIO. Le GPIO (General Purpose Input/Output) est une interface avec des dispositifs et des préférences externes, tant d’input que d’output. Avec l’augmentation de la complexité et de la densité des PCB actuels, rechercher et trouver tous les signaux qui traversent un plan séparé (split plane) est un processus manuel exténuant. Les outils de simulation standards ne contrôlent généralement pas ces situations.

Le problème avec la plupart des outils est que lorsqu’un signal haute vitesse traverse un split plane il peut créer une discontinuité d’impédance sur la piste du signal, ce qui peut entraîner des réflexions, des radiations et des diaphonies indésirables. Quand le concepteur met en oeuvre la règle ‘Nets Crossing Gaps’ dans HyperLynx DRC, il est capable d’identifier facilement quand et où apparaissent ces discontinuités.

La règle Nets Crossing Gaps permet de vérifier que les traces d’un signal dispose d’un plan de référence. Les signaux nécessitent un plan de référence adjacent pour permettre des trajets de courant de  retour continus, réduisant ainsi le risque de rayonnement common-mode.

Il y a généralement des dizaines d’erreurs ce ce type sur les signaux. Pour aider le concepteur à trier, affiner et sélectionner les erreurs, celui-ci dispose d’une synthèse sous la forme d’un tableau de résultats.  La sélection d’une erreur dans ce tableau permet directement la visualisation géographique de celle-ci dans le PCB. Ensuite, il peut décider si l’erreur doit être corrigée ou pas et apporter des modifications si nécessaires.  Cette action peut être menée aussi depuis la fenêtre “Contrôle d’Analyse” de l’outil de layout. En cas de modification, rejouer la vérification permettra de s’assurer de la bonne résolution du problème.

Le concepteur peut de plus exécuter une règle séparée ‘IC-over splits’, qui vérifiera si les composants (type circuit intégré (IC))  ont un plan de référence adéquat en dessous d’eux. Si un IC n’a pas de plan de référence intégré dans son boitier et qu’il ne dispose pas d’un plan de référence au niveau du PCB, alors cela pourrait entraîner un rayonnement en mode commun. Si des cas de CI sans plan de référence sont identifiés, le concepteur peut alors cliquer sur une erreur spécifique et l’outil montrera l’emplacement exacte de l’erreur.

IC over split DRC

L’application de la règle ICs over split

Le DRC des paires différentielles avec HyperLynx

La carte BeagleBone Black a plusieurs paires différentielles à 90 ohms.  Pour les gérer, le concepteur peut utiliser le gestionnaire de contraintes (Constraint Manager)  pour créer un groupe (appelé classe) qui inclura toutes ces paires différentielles. Une fois nommée, les données de cette classe sont automatiquement chargées depuis la définition de classe de contraintes de classes dans PADS Professional. Pour en revenir aux règles concernées, le concepteur peut contrôler l’impédance de ces paires différentielles de 90 ohms.  S’il existe des difficultés pour l’intégrité du signal associées à des inadéquations d’impédance différentielle, le concepteur peut trouver une autre règle d’impédance différente dans la catégorie SI. Cette règle vérifiera si l’impédance reste cohérente pour tous les segments de la piste pour un signal donné.

Une fois les propriétés de la règle configurées correctement, le concepteur peut voir si des erreurs existent. Si des erreurs d’impédance se produisent, cela peut être dû au fait que la règle ait été exécutée à l’aide des paramètres standards prédéfinis. Par exemple, la valeur par défaut d’impédance dans la règle pourrait être de 100 ohms, mais la valeur des paires différentielles dans la carte est de 90 ohms. Le concepteur peut rapidement modifier le paramètre par défaut de HyperLynx DRC, puis exécuter à nouveau la règle. Une fois la règle vérifiée, le concepteur peut passer à une étape suivante.

Positionnement des capacités de découplage

L’un des nombreux défis auxquels sont confrontés les concepteurs consiste à suivre les paramètres de chaque composant. Dans la datasheet du processeur TI utilisé sur la BeagleBone Black, le concepteur devra entre autre, se concentrer sur la section décrivant les exigences des capacités de découplage du processeur. Si les capacités de découplage ne sont pas correctement positionnées, le risque de dysfonctionnement de l’interface DDR3 est élevé. La datasheet indique que la distance maximale autorisée pour les condensateurs de dérivation sur le net VDDS_DDR est de 10mm (400 mils).

Avec ces informations, il est essentiel de revenir sur l’outil DRC et de trouver la règle de positionnement des condensateurs de découplage. Cette règle permet de déterminer s’ils sont placés correctement en accord avec les paramètres appropriés autour de l’IC. S’il existe des erreurs d’emplacement, le concepteur peut sélectionner chacun des composants incriminés. PADS Professional aide le concepteur à détecter l’emplacement de l’erreur par rapport au rayon de placement spécifié.

Analyse de la transition de signal d’une couche à l’autre

La règle « vertical reference plane change » examine les signaux passant d’une couche à une autre. Bien que le changement de plan soit une pratique courante en matière de conception, pour s’adapter à la densité actuelle de la topologie du circuit imprimé, il convient de veiller à réduire le risque de radiation en mode commun. Souvent, les condensateurs ou les “stiching via” sont placés pour permettre un chemin de retour du courant continu. Cette règle détermine si ces conditions sont remplies. Le concepteur exécute la règle dans la liste des objets GPIO définis précédemment afin de spécifier les contraintes pour les changements de plan. En cas d’erreurs, des recherches ultérieures pourraient montrer qu’elles se produisent sur différentes broches  du principal processeur de la carte. La nécessité de remédier à ces erreurs dépendrait du type d’utilisation du processeur et du rôle de ces broches.

Spécifications temporelles pour les signaux à hautes vitesses

La règle suivante exécutée par le concepteur est « delay and links matching ». Les spécifications temporelles des signaux à hautes vitesses timing est extrêmement importante pour un bon fonctionnement, en particulier dans les structures DDR. Si les signaux DDR n’atteignent pas leur destination avec des contraintes de timing adéquates, la mémoire ne fonctionnera pas correctement. Les problèmes de timing se produisent pour une multitude de raisons incluant : le temps de propagation de la ligne de transmission dû au stackup du circuit, les propriétés diélectriques et le routage des signaux. Les problèmes de retard étant souvent dus aux propriétés physiques uniques d’un circuit imprimé, il s’agit d’un paramètre important que le concepteur doit prendre en compte. Les réseaux DDR étant souvent sujets à des problèmes temporels, le concepteur crée une autre liste d’objets contenant les signaux DDR.

Pour cette vérification, le concepteur vérifie la cohérence des délais, la cohérence des longueurs de routage ou les deux. Une des fonctionnalités puissantes de HyperLynx DRC est le calcul automatique des valeurs nécessaires à partir des informations du stackup. En cas d’erreur, PADS Professional montrera en rouge le signal en défaut et en vert le signal de référence.

Intégrité du signal et des alimentations.

HyperLynx DRC a des règles avancées qui aident à identifier les problèmes d’intégrité du signal (SI) et d’alimentation (PI). Dans un projet DDR qui utilise la topologie “fly-by”, la longueur des ‘stub’ est importante pour un fonctionnement correct.

  • La règle ‘Fly-by Topology’ vérifie que les signaux utilisant ce type de routage ont été routés avec les contraintes appropriées. Un aspect à prendre en compte est la diaphonie, car elle peut entraîner de graves erreurs de synchronisation et de fonctionnement. Il est très difficile de la diagnostiquer manuellement sur un circuit imprimé. La règle de topologie fly-by aide le concepteur à identifier la diaphonie indésirable sur les signaux sensibles.
  • La règle ‘Signal Supply’ vérifie les discontinuités entre les plans d’alimentation d’un circuit  intégré et le plan de référence des signaux qui lui sont connectés. Ces types d’erreur peuvent entraîner des rayonnements potentiellement puissants et provoquer des défaillances EMI (interférences électromagnétiques).
  • La règle ‘Power Ground Width’ ​​contrôle la présence de tracés étroits sur les réseaux de masse. Si les pistes d’alimentation et de masse ne sont pas assez larges, le courant résultant peut être insuffisant. Cela peut entraîner une série de problèmes, notamment une alimentation insuffisante des composants et une élévation de température.
  • La règle ‘Filter Placement’ vérifie la présence de filtres à proximité immédiate des broches des connecteurs. Les filtres sont nécessaires pour supprimer les bruits pouvant être présents sur un connecteur afin de protéger les signaux sensibles et d’empêcher les radiations. L’absence ou le mauvais placement des filtres sur les connecteurs peut causer de sérieux problèmes d’EMI.
  • La règle « Return Path » garantit que les signaux testés ont un trajet de retour d’impédance suffisamment faible. Le respect de ce type de règle est important, notamment à cause de l’augmentation des exigences de conception des circuits à grande vitesse et la réduction de la taille du circuit imprimé. Si le courant de retour sur une piste ne passe pas correctement sous le conducteur il pourrait emprunter un chemin imprévu à travers d’autres zones du circuit, ce qui pourrait causer des problèmes d’interférences électromagnétiques.

Dans PADS Professional, le concepteur peut afficher toutes les règles exécutées dans la fenêtre Analysis Control. Les erreurs spécifiques sont décrites plus en détail dans la fenêtre Hazards. Si le concepteur décide d’ignorer une violation, il peut l’accepter en cochant la case correspondante. Il est également possible d’écrire des commentaires sur les risques acceptés afin de suivre facilement les décisions de conception. Le concepteur peut ensuite créer un rapport de toutes les erreurs dans un fichier texte en cliquant sur l’icône « Signaler tous les dangers ».

HyperLynx DRC in PADS Professional

La fenêtre Analysis Control de HyperLynx DRC dans PADS Professional

Succès du premier coup avec HyperLynx DRC

En conclusion, avec PADS Professional et HyperLynx DRC, le concepteur peut être assuré que son projet fonctionnera dès le premier essai en identifiant les erreurs qui seraient difficiles à diagnostiquer en temps normal. Grâce à ces outils, vous évitez de perdre du temps et de l’argent sur des pannes de carte coûteuses et des itérations. Garantir que le circuit imprimé réponde à toutes les attentes en matière de règles électriques avancées est la condition à remplir pour le succès de la première étape de la conception.

Réduire les temps de conception avec le Design Rule Checking (DRC)

Regardez le webinaire à la demande gratuitement

webinar sul Design Rule Checking (DRC)

Dans la conception de circuits imprimés, il est courant que des défauts de conception, souvent difficiles à détecter, dégradent la performance globale du projet et provoquent des défaillances. Mais grâce au Design Rule Checking (DRC), il est possible de vérifier l’intégrité d’un circuit imprimé, à la fois d’un point de vue logique et physique.

Dans ce webinaire Olivier Arnaud parle des fonctionnalités de HyperLynx DRC pour PADS Professional, un système de contrôle personnalisable basé sur des règles électriques pour le PCB layout et l’IC Design.

Leggi tutto...
CadlogPCB Design, qu’est-ce que le Design Rule Checking (DRC), avec un cas pratique d’application

Optimiser la production de câblage avec Capital Formboard Manager

Dans cet article nous verrons comment, dans la production de câblage, Capital Formboard Manager permet une utilisation efficace de l’espace de travail et de la chaîne de production lorsqu’il s’agit de créer de multiples variantes du même câblage tout en préservant la rentabilité de la production.

La production du câblage au défi du changement

Dans un secteur industriel déjà très compétitif comme celui du câblage, l’augmentation de la complexité à tendance à mettre à rude épreuve la rentabilité du processus de production, qui est encore majoritairement manuel et demande beaucoup de main d’œuvre. Cette complexité va continuer de s’accroître à l’avenir, suite au déploiement des véhicules électriques, des systèmes de conduite autonomes et de leurs impacts sur les systèmes de distribution électrique. Il arrive de plus que les fabricants de câbles doivent procéder à de nombreuses modifications de conception alors que leur produit est déjà en phase de production, ce qui impacte négativement la performance des lignes de production tant en termes de main d’œuvre que des équipements et même l’espace à l’intérieur de l’usine.

La configuration initiale d’une ligne de production est une activité clé qui demande une grande expérience d’ingénierie de production. Les zones de préparation doivent être conçues, les câblages doivent être disposés sur les panneaux, puis les trous pour les éléments de fixations doivent être effectués, les supports doivent être montés sur la table et les postes de travail doivent être définis tout en assignant les différentes tâches. Il faut aussi concevoir et préparer le matériel destiné aux essais des produits. La ligne de production entière doit être adaptée sur la base du temps de livraison et des volumes prévus, des facteurs influençant le nombre de lignes de production et l’utilisation de l’espace à l’intérieur de l’usine.

De telles décisions doivent être réévaluées pour chaque modification du projet. La formboard peut nécessiter une mise à niveau, une ligne de production peut demander un rééquilibrage ou encore un employé peut avoir besoin d’être requalifié.

En outre la productivité peut diminuer pendant de courte période en raison de modifications liées aux changements des volumes de production. Un changement important dans la demande de câblage peut affecter considérablement l’utilisation de la capacité d’une ligne de production.

Figure 1 – Une ligne de production de câblage avec des Merged formboards.

 

La Merged formboard pour la production de câblage.

En utilisant la Merged formboard, les ingénieurs peuvent concevoir des lignes de production leur permettant de produire des câblages différents (mais très similaires) sur la même ligne. En d’autres termes, plusieurs lignes de production peuvent être substituées par une ligne unique, libérant ainsi l’espace dans l’usine et d’autres ressources, et augmentant la productivité et l’efficacité de chaque ligne.

Étant donné que deux dessins ou plus sont représentés sur un dessin de Merged formboard, il est courant d’utiliser des couleurs pour mettre en évidence les éléments appartenant à chaque câblage. Comme on peut par exemple le voir sur le côté droit de la figure 2 avec les trois couleurs.

Harness merged formboard

Figure 2 - Un exemple de merged formboard

  • Noir : utilisé pour les parties communes à tous les câblages
  • Bleu : cette partie concerne uniquement l’un des câblages
  • Orange : cette partie concerne uniquement l’un des câblages

L’opérateur de l’atelier sait quels câbles doivent être produits. Par conséquent, il suffit qu’il connaisse le code couleur pour pouvoir identifier la section correspondante sur la Merged formboard.

Le pourcentage de parties communes entre les câblages est un facteur clé dans la décision du lancement du processus d’unification. Généralement, 70 à 80% de parties communes est considéré suffisant. S’il y a peu de parties communes, la Merged formboard qui en résulte peut s’avérer trop compliquée à lire et à comprendre. Cela conduira à une efficacité de production médiocre, étant donné que les opérateurs ne peuvent pas obtenir assez rapidement les informations nécessaires à partir d’un dessin compliqué de formboard.

Comment est conçue la merged foarmboard de nos jours

Traditionnellement, les Merged formboards sont créées dans un processus majoritairement manuel, en utilisant des instruments de dessin qui ne sont pas forcément conçus pour la réutilisation et le partage des données. Rien que la première étape – décider si deux câblages sont de bons candidats à produire sur une ligne de production unique – est une tâche longue et laborieuse. Les dessins doivent être comparés manuellement, en faisant attention à toute une série de paramètres comme les dimensions, la topologie, les composants et leurs positions, les éléments de fixation et les contenant pour les composants.

Le processus d’unification en soi est une autre activité laborieuse, lorsque l’on utilise principalement des outils de dessin. Dans cette phase, étant donné la limitation de la grande partie des instruments de dessin, les données du câblage ne sont généralement pas prises en compte. C’est pourquoi mener à bien le projet initial de Merged formboard peut nécessiter des jours, voir des semaines, dans le cas de câblage de grandes dimensions.

Une fois conçue, la merged formboard doit être montée. Toutes les modifications apportées au projet original du câblage doivent être mises en place, incluant la mise à jour de merged formboard. Mais une fois de plus, cette activité sera manuelle, fastidieuse et sujette aux erreurs, la formboard étant probablement conçue en utilisant des logiciels de dessin déconnectés de toutes formes de données.

Il n’est donc pas surprenant que de nombreux ingénieurs de production s’opposent à l’optimisation de la ligne de production en ayant recours aux Merged formboards. Pour les moins expérimentés, il est souvent difficile de trouver le bon candidat à une Merged formboard. Même lorsqu’il existe un point commun important entre deux lignes, la création et la maintenance de Merged formboards s’avèrent trop onéreuses.

La conception de Merged Formboard avec Capital

La bonne nouvelle est qu’il existe des alternatives à l’utilisation de simples outils de dessin. La suite Capital de Siemens PLM fournit une technologie centrée sur les données qui gère le flux entier de conception et de production. Les deux tableaux suivants offrent un aperçu sur quelques-unes des caractéristiques principales et des avantages de Capital.

CAPITAL – CARACTÉRISTIQUES
Flux de processus centré sur les données
Possibilité de réutiliser les données
Continuité des données
Large gamme de capacité d’automatisation
Gestion du changement intégrée

 

CAPITAL – AVANTAGES
Gain de temps
  • Possibilité de réinvestir le temps dans des activités d’optimisation de la ligne de production
Nouvelles opportunités
  • Possibilité d’explorer différents scénarios de type “What-If”
Temps de réaction inférieur
  • Réaction rapide aux changements de demandes, de volumes de productions ou d’autres paramètres
  • Aucune perte due à des utilisations contre-performantes des lignes de production
Temps de création des dessins inférieur
  • Un effet collatéral bénéfique des fonctionnalités avancées de cet outil

Un projet de câblage dans la suite Capital est avant tout un ensemble de données, qui peut également être représenté par des diagrammes. Chaque diagramme peut être dessiné de manière indépendante, permettant au concepteur de créer la juste représentation graphique de chaque cas d’utilisation. La gestion des modifications est plus simple et plus fiable puisque les données peuvent être ré-utilisées presque indéfiniment et puisque les données des diagrammes correspondant restent corrélées les unes aux autres par le flux entier.

Capital offre un environnement parfait pour la création et l’entretien de planches à clous et de lignes de production fusionnées. Les techniciens de production peuvent sélectionner les formboards existantes et les comparer, afin de trouver les paires de candidats adaptés.  Compte tenu de la continuité des données, Capital Formboard Manager propose une vaste gamme de cas pour identifier les meilleurs candidats à la Merged formboard. Le calcul de la quantité réelle de parties communes peut être effectué en un seul clic. La fonctionnalité de fusion automatique peut intégrer de nombreuses tâches de niveau inférieur et prédéfinies. L’outil prend en charge le flux de travail naturel d’une équipe de concepteurs. La connaissance du câblage qui est stockée dans les données, est immédiatement disponible pour être appliquée pendant tout le processus de jonction.

Capital réduit également considérablement le temps nécessaire à la création d’une Merged formboard. L’outil simplifie par exemple le maintien de la position des éléments de fixation existants sur la formboard physique pendant la fusion. De cette manière, la gestion du changement est généralement très rapide et facile à gérer.

Merged formboard et combined formboard

Les combined formboards offrent une autre possibilité d’utiliser les ressources de façon la plus efficace possible dans la réalisation de câblages. La différence est que, dans ce cas, les câblages sont à des endroits différents. En d’autres termes, l’espace libre sur les panneaux existants est utilisé pour produire un câblage complètement différent. Cette méthode est souvent utilisée pour le câblage de petite taille et le câblage avec des volumes de production faibles. La combined formboard permet la production de nombreux câblages de ce type en utilisant le même équipement et le même espace de fabrication. Capital Formboard Manager peut également être utilisé pour créer et gérer ce type de planche à clous. La figure 3 ci-dessous montre un exemple de ces combined formboards.

Herness combined formboard

Figure 3 - Un exemple de combined formboard

Conclusion

Capital Formboard Manager permet la création et la mise à jour de merged formboards, dans un environnement basé sur des flux de données continus. Cet outil permet au département d’ingénierie de maximiser l’efficacité des lignes de production. Le passage d’une approche purement manuelle, basée exclusivement sur des outils de conception, à une approche basée sur des données reliées réduit considérablement les efforts requis pour fusionner et combiner des formboards et des lignes de production. Capital permet aux ingénieurs de production de se concentrer sur ce qu’ils font le mieux, comment passer rapidement d’un scénario d’optimisation de ligne à un autre, plutôt que d’utiliser un logiciel de dessin peu pratique. Pour les fabricants de câbles, cela signifie prendre de meilleures décisions et, finalement, atteindre le seuil de rentabilité beaucoup plus rapidement, compte tenu des changements inévitables qui peuvent se produire.

Téléchargez dès à présent le livre blanc avec synthèse en français :

Capital Formboard Manager: Technology for Greater Wire Harness Manufacturing Efficiency

Le livre blanc de Mentor illustrant les problematiques d’optimisation dans la production de câblage face aux variations de la demande et expliquant comment ils peuvent être résolus de manière efficace avec les formboard accorpate.

Leggi tutto...
CadlogOptimiser la production de câblage avec Capital Formboard Manager

Comment fonctionne le lancement de nouveaux produits dans l’industrie électronique.

L’introduction de nouveaux produits (NPI), aussi appelée développement de nouveaux produits, désigne l’ensemble des activités nécessaires pour amener un nouveau produit industriel sur le marché. Chaque fois qu’un nouveau projet est créé, et qu’il est décidé de passer à son ingénierie puis à sa production, l’on parle d’introduction de nouveaux produits. La NPI est le pont qui relie le projet à la production, permettant de considérer le produit de ces deux points de vue. L’introduction de nouveaux produits permet de :

  • Comprendre les impacts du projet du circuit imprimé sur la production
  • Optimiser le projet du circuit imprimé sur la base des volumes de production
  • Communiquer à la production l’ensemble des données du projet
  • Générer toute la documentation, les programmes et les instruments nécessaires à la production.

La nécessité de solutions pour la NPI

L’introduction de nouveaux produits est une phase du processus industriel qui nait de la nécessité de résoudre certains problèmes comme par exemple :

  • Un niveau excessivement élevé d’impossibilités durant le processus de production ;
  • De faibles rendements lors de la production ;
  • La difficulté à respecter les délais de livraison ;
  • Des problèmes de fiabilité du produit ;
  • Des temps de préparation des données pour la production trop longs ;
  • La nécessité d’impliquer trop de main d’œuvre dans la gestion des problèmes ;
  • La requête de la part des clients de services de Design for Manufacturing (DFM) et des retours d’informations.

Une solution répondant à toutes ces nécessités est Valor NPI, l’outil de Mentor et Siemens PLM utilisant les meilleures solutions DFM pour permettre une mise sur la marché efficace et économique de nouveaux produits. Le processus NPI que permet cet outil consiste d’abord à vérifier que les données de sortie du projet soient compatibles avec les processus de production qui doivent être adoptés et avec les contraintes technologiques. Il prépare ensuite ces données à être utilisées afin d’éviter tout soucis lors de la préparation du processus de production.

Il processo di New Product Introduction (NPI)

Valor NPI analyse les projets de circuits imprimés du point de vue du rendement en phase de production, du coût et d’éventuels problèmes de fiabilité du produit fini.

Le processus de DFM pour l’introduction de nouveaux produits vu de plus près

Le processus de Design for Manufacturing pour l’introduction de nouveaux produits se déroule en théorie à la fin de la phase de conception. En réalité, comme nous le verrons, le DFM comporte non seulement la nécessité de retravailler quelques aspects du projet lui-même, mais il est aussi souhaitable qu’il intervienne déjà au sein de la phase de conception. Les données de sortie, aux formats standards IPC-2581 et ODB++, sont traitées par Valor NPI, qui les analyse à la recherche d’éventuels problèmes, en effectuant de nombreux contrôles. Ces derniers peuvent être liés tant à la fabrication du circuit imprimé qu’à son assemblage. A ce stade peuvent survenir deux cas de figure :

  • Si des problèmes sont trouvés, un rapport est envoyé afin d’effectuer les modifications au projet, et soit dit en passant de plus en plus de concepteurs préfèrent corriger leur propre travail plutôt que de constater par la suite des augmentations de coûts dues à leurs erreurs ;
  • Si les tests sont passés avec succès, les données sont prêtes à passer à la phase suivante, celle de la FAO (Fabrication Assistée par Ordinateur), les logiciels qui gèrent les machines pour la fabrication des circuits imprimés. Lors de cette étape c’est Valor Process Preparation, la solution de Siemens PLM pour l’ingénierie, qui effectue la majeure partie du travail, le DFA (Design for Assembly), l’assemblage et le test du circuit imprimé.

Ensuite, comme le montre le schéma suivant, vient la fabrication du circuit imprimé et l’assemblage des composants pour la réalisation du circuit complet, où la solution la plus avancée est Valor MSS, désormais intégrée à Camstar Electronics Suite.

Valor NPI nel processo di produzione del PCB

La nécessité d’un DFM précoce

L’expérience démontre à la grande majorité des concepteurs qu’effectuer des contrôles DFM uniquement à la fin du processus de conception est risqué car cela pourrait être trop tard. L’approche du « décalage à gauche » proposée par mentor s’avère être d’une aide précieuse pour cela. Nous ne parlons pas ici de politique mais d’une culture conceptuelle qui s’affirme toujours plus dans l’industrie.

Décaler à gauche signifie anticiper le plus tôt possible, sur une échelle chronologique horizontale imaginaire, tous les contrôles, les vérifications et les simulations qui sont nécessaires pour anticiper les comportements du produit et de ses composants, et de ce fait se prémunir contre d’éventuels problèmes. Nous en avons déjà parlé plusieurs fois dans la vérification et dans la simulation dans le domaine de la conception virtuelle. Dans ce cas il s’agit essentiellement d’anticiper les défauts et les problèmes de possibilité de production.

Le principe est simple : résoudre les problèmes dès leur création est facile alors que plus on le découvre tard, plus il sera difficile à résoudre. Et cette règle est valable pour n’importe quel aspect de la vie ! Le schéma ci-dessous illustre dans quelles phases le DFM se montre particulièrement efficace dans la prévention de problèmes

Il DFM simultaneo (concurrent DFM) nel processo di progettazione del PCB

Un avantage à souligner, concernant l’adoption d’un outil comme Valor NPI, est que les résultats de l’analyse DFM sont directement reliés au logiciel de CAO gérant la topologie du circuit imprimé, réduisant ainsi n’importe quel temps de modification. Cette approche a aussi un aspect important que nous pourrions caractériser de culturel, car il aide les concepteurs à être mieux informés sur la production. Il n’est en effet pas rare que le concepteur ne sache rien du processus de production, ou même qu’il n’ait jamais mis les pieds dans une usine de toute sa vie, et il a donc tendance à rester enfermé dans une approche abstraite lors de la conception. C’est un phénomène découlant de nombreux facteurs, comme la diffusion des instruments digitaux de conception, la complexité des projets, la nécessité de réduire toujours plus les délais, etc.

Les contrôles DFM

À ce stade il reste à comprendre ce qu’il y a à contrôler dans un projet qui a probablement passé toutes les phases de vérification, de validation et de simulation. Le travail à faire est conséquent, considérant par exemple qu’un problème pourrait passer avec succès le Design Rule Checking, mais impacter quand même sur le rendement de la production, sur le coût et sur la fiabilité du produit fini.

A l’heure actuelle, Valor NPI effectue 953 contrôles de différentes sortes, parmi lesquels 292 relatifs à la fabrication du circuit imprimé, 366 à l’assemblage, 123 aux technologies du circuit flexible et flex rigide, 45 sur les microvias, 39 à la panélisation, 88 aux substrats. De plus le logiciel valide les netlists, les nomenclatures et la liste des fournisseurs agréés.

Pour avoir une idée du type d’impact que peut avoir le DFM, il peut être utile de consulter la liste des contrôles effectués par Valor NPI pour la fabrication du circuit imprimé, c’est-à-dire les vérifications qui permettent d’identifier d’éventuels problèmes durant la production du circuit imprimé.

La panélisation, est un aspect souvent négligé en phase de production et un exemple parlant. Les programmes de CAO usuels disposent les circuits imprimés en fonction de leurs dimensions, sans prendre en compte la forme et cela se traduit par une grande perte de matériel.

Dans l’exemple suivant, un panneau de 18’’ x 24’’ est utilisé. Dans le premier cas les circuits imprimés sont disposés suivant leur dimension globale et l’on ne peut en rentrer que 6 dans un panneau, soit un taux d’utilisation du matériau de 18,7%. Dans le deuxième cas, Valor NPI a étudié la question avec précision, comprenant que dans ce cas l’on pouvait faire entrer 10 circuits imprimés, avec une utilisation des matériaux de 31,5%. Ces résultats parlent d’eux même.

Ottimizzazione nella pannellizzazione del PCB con Valor NPI

Découvrez comment économiser du temps et de l’argent grâce à Valor NPI

Saving Time and Money with Valor NPI

Risparmiare tempo e soldi con Valor NPI

La présentation, riche en exemples et en illustration, montrant de manière exaustive comment économiser du temps et de l’argent avec le DFM de Valor NPI. Ce manuel permet de comprendre comment créer le lien qui manquant entre la conception et la production de circuits imprimés.

Leggi tutto...
CadlogComment fonctionne le lancement de nouveaux produits dans l’industrie électronique.

La vérification anticipée dans les différents domaines de conception des circuits imprimés permet de réduire au minimum la réalisation de prototypes pour la validation de la conception et de la production

La vérification anticipée est actuellement la méthode plus avancée dans le PCB Design, car elle permet d’éviter la multiplication des prototypes pour la validation de la conception complète afin d’arriver à une production finale plus rapidement et à moindre coûts. La vérification anticipée est une caractéristique typique de la plateforme Xpedition Enterprise pour le PCB Design, la solution de Mentor et Siemens.

L’ensemble des outils de Mentor permet aux concepteurs d’intégrer, dans une plateforme unique de réalisation des circuits imprimés, une vaste gamme d’outils de vérification faciles d’utilisation qui leur permet d’identifier les problèmes tant dans la phase de conception schématique que dans la phase post-routage. La dernière version de la plateforme Xpedition offre la possibilité de faire des analyses précises et des vérifications simultanées, accessibles simultanément à plusieurs concepteurs. Cette intégration complète des instruments contribue à faire des économies significatives en termes de temps et de coûts, tout en offrant un produit de qualité supérieure.

Les technologies intégrées pour la vérification des circuits imprimés

La plateforme de Vérification Xpedition est pensée pour les concepteurs de circuits imprimés et inclut des fonctions de simulation et d’analyse rapides et intuitives. Les technologies intégrées pour la vérification, menées à l’intérieur de l’outil de création de conception, permettent la création automatique des modèles, la simulation simultanée, la vérification des résultats et les contrôles des erreurs à l’intérieur d’un même environnement.

La plateforme Xpedition inclut une gamme de technologies solides : analyses de la schématique, analyse de l’intégrité du signal (SI), de l’intégrité des plans d’alimentation (PI), le contrôle des règles électroniques (ERC), la simulation thermique, l’analyse des vibrations, ainsi que les différentes analyses pour la production (DFM) : Design for Fabrication (DFF), Design for Assembly (DFA) et Design for Test (DFT). Ces technologies intégrées, appliquées au sein d’un seul environnement permettent de fournir des prototypes virtuels de manière anticipée.

Les nouveautés de la plateforme de vérification Xpedition

La plateforme de vérification Xpedition intègre de nouvelles technologies dans différents domaines :

  • Vérification du projet schématique : un nouvel instrument d’intégrité de la schématique, puissant et entièrement automatique, substitue l’inspection visuelle et manuelle, éliminant jusqu’à 70% des prototypes au début du projet.
  • Analyse Design for Test : identifie les exigences pour les points tests qui sont automatiquement passés de la conception du schéma au routage en tant que contraintes afin d’améliorer la couverture de testabilité. Cette fonction crée des fichiers de test et d’inspection pour un diagnostic précoce du processus de préparation, réduisant ainsi le coût global des tests.

Les fonctions qui ont quant à elles été améliorées sur la nouvelle plateforme Xpedition incluent :

  • Analyse DFM (Design for Manufacturability), laquelle fournit une analyse complète du DFM pour la validation de la fabrication, pour l’assemblage, pour le test, pour le Flex/Rigid, la validation du substrat et du panneau de fabrication. Le tout dans les phases avancées et en mode simultané, durant la conception du circuit imprimé.

 

  • Analyse du Sign-Off : le contrôle automatique des règles électriques (ERC) identifie rapidement l’intégrité critique du signal, l’intégrité de l’alimentation et les interférences EMI / EMC en simultané avec le routage du circuit imprimé, accélérant potentiellement la fréquence des révisions du projet de plusieurs jours à quelques minutes.

L’intégration dans la production électronique d’après la vision de Siemens

Avec Xpedition Entreprise, les équipes de conception développent les systèmes électroniques les plus complexes au monde, dans un environnement d’entreprise multidisciplinaire, qui offre un avantage compétitif à leurs organisations et à leurs produits sur le marché. L’intégration des différents outils de vérification, typique de cet outil de projection de Mentor, se place désormais pleinement dans la vision de Siemens, celle de l’intégration de tous les domaines, incluant l’électronique, l’électrique, la mécanique et l’informatique, depuis l’élaboration du produit pendant tout son cycle de vie.

C’est vision a tendance à faciliter la collaboration et à augmenter la transparence entre les différents domaines, à travers une  » projection simultanée  » et la “méthodologie du décalage à gauche”, dans laquelle la validation est poussée le plus possible vers la phase initiale du processus dès le début de la conception avant que les erreurs ne se manifestent.

Ces méthodologies caractérisent les entreprises qui obtiennent aujourd’hui les meilleurs résultats sur le marché, comme lors d’une étude récente de Aberdeen Group, dont nous proposons une synthèse des résultats à télécharger. Ce rapport permet de comprendre, de manière très concrète, quelles sont les méthodes et les comportements qui permettent de faire la différence.

Téléchargez l’e-book sur les meilleures pratiques basées sur la vision Siemens:

Le migliori pratiche per i Responsabili del PCB Design

Tutti i dati, in italiano, che emergono dal rapporto dell’Aberdeen Group sulle caratteristiche dei gruppi di progetto che ottengono i migliori risultati in termini di rispetto dei tempi, del budget, successo sul mercato.

Leggi tutto...
CadlogLa vérification anticipée dans les différents domaines de conception des circuits imprimés permet de réduire au minimum la réalisation de prototypes pour la validation de la conception et de la production