Year 8 n°2 Summer 2011 Tecniche di modellazione in Maxwell 14 ents coming Two major ev t significant mos e th r fo er th toge Calendar e Italian CAE occasion in th MELiSSA PROJECT: Plant Growing Environment Characterization Tyre set-up for commercial vehicle multi-body model: modeFRONTIER as a calibration tool EnginSoft Gained a New Partner: 3 M E S.r.l. Optimization Under Uncertainty of Wind Turbines Weather Forecasting with Scilab Ottimizzazione di ponti in curva in struttura composta acciaio-calcestruzzo Newsletter EnginSoft Year 8 n°2 - 3 EnginSoft Flash What is or what does CAE mean today? Where are we, the CAE Users, going? You may think that questions like these sound rather philosophical, and I agree with you. However, in our hectic professional lives and fast changing “CAE environments” these are the thoughts that hit many of us at times, and they make us wonder: and modeFRONTIER work together, efficiently and successfully. We hear more about Scilab, its solution for the cutting stock problem, and how the software can even contribute to the weather forecast! The use of the Forge software at FEAT Group and Gnutti Cirillo S.p.a. is illustrated in our in-depth study and success story. What is the right approach in the mid to long term, from a technological, a business, a human point of view? We inform our readers about EnginSoft’s role in the MELiSSA Project, a development program for an artificial ecosystem. Moreover, we outline the successful completion of the New Aero Engine Core Concepts’ (NEWAC) Project which our CFD Team was supporting heavily since 2005. Ing. Stefano Odorizzi Having seen the recent worldwide financial EnginSoft CEO and President crisis and changing public views, such as the growing belief in our nature’s resources and renewable energies, at EnginSoft, we believe that now is the time to foster an even more holistic model for our Our Corporate News report about the close collaboration of University of Cranfield and EnginSoft UK and how both customers: state-of-the-art technologies complemented support, as key partners, the EPSRC Centre for Innovation by a network of sound expertise, first-class support and Manufacturing in Through-life Engineering Services. We services along with a tailored training program. hear about EnginSoft’s new partner M3E which stands for In this light, EnginSoft and ANSYS Italy are proud to “Mathematical Methods and Models for Engineering”. Our welcome users of engineering analysis and simulation to Book Review this time presents a recommendation by ATA this year’s International Conference and ANSYS Italian on Fiat and the technological innovation of the Users’ Meeting. The events will provide a culmination of automobile. views, engineering expertise and experiences from which everybody in the audience will benefit: user, developer, Our Japan Column helps us to understand the people of vendor, manager, engineer, scientist, researcher and Tohoku and the beauty of their homeland. student. While we admire their unbeaten will and strength to overcome the severe consequences of the recent natural With this Summer Edition of the Newsletter, we would like disasters, we know that they will succeed because they to give our readers a foretaste of what the Conferences in support each another, their land, their nation - their Verona will cover, among many other topics and values. disciplines: We close this Newsletter with the Event Calendar and the Iveco, a global leader in commercial vehicles, presents recent conference and fair highlights including the Paris modeFRONTIER as a calibration tool while the University Air Show, the Wind Turbine Technology Forum and the of Nantes, France, reports on Genetic Algorithm Transvalor Users’ Meeting in Cannes. Optimization for Soil Parameter Identification. Standford University and Università Federico II di Napoli explain the Now, let us explore together how CAE and Virtual important role of optimization in the design of Wind Prototyping can be true assets for our businesses and Turbines. Uniconfort produces plants for the energy substantial successes in the future! Please refer to our conversion of biomass, this Newsletter features their Conference and Exhibitor Announcements on the following applications with ANSYS CFX and ANSYS Mechanical. The pages and register in time on www.caeconference.com Università degli Studi di Trieste tell us about their optimization work for reinforced concrete. The Editorial Team, EnginSoft and ANSYS Italy look forward to welcoming you to Verona in beautiful Veneto With our Software News we would like to provide an this October! update on ANSYS Maxwell 14, ANSYS Composite Pre-Post v.13.0 and Flowmaster V7.8. Fabiano Maggio from Stefano Odorizzi EnginSoft Padova, demonstrates how ANSYS Workbench Editor in chief 4 - Newsletter EnginSoft Year 8 n°2 Sommario - Contents 6 2011 EnginSoft International Conference: CAE TECHNOLOGIES FOR INDUSTRY CASE STUDIES 8 11 14 18 22 26 Tyre set-up for commercial vehicle multi-body model: modeFRONTIER as a calibration tool Genetic Algorithm Optimization for Soil Parameter Identification As Applied to a Spread Footing Test Optimization Under Uncertainty of Wind Turbines Ottimizzazione cinematica di una pressa meccanica link-drive con tecnologia ANSYS Workbench e modeFRONTIER Ottimizzazione di ponti in curva in struttura composta acciaio-calcestruzzo Higher Energy Recovery and Longer Life for Heat Exchangers SOFTWARE NEWS 29 31 34 ANSYS Composite Pre-Post v.13.0: lo stato dell’arte nella progettazione e nell’analisi delle strutture in materiale composito Tecniche di modellazione in Maxwell 14 Flowmaster V7.8 RESEARCH & TECHNOLOGY TRANSFER 36 40 MELiSSA PROJECT: Plant Growing Environment Characterization EnginSoft Successfully Finishes the NEWAC Project IN DEPTH STUDIES 42 47 51 Optimization? Do It with Scilab! Weather Forecasting with Scilab Ottimizzare il processo per ottenere dei componenti stampati di elevata qualità: esperienze di simulazione di stampaggio a caldo di acciaio con pressa o maglio TESTIMONIAL 58 GNUTTI CIRILLO: Elevato standard qualitativo, orgogliosamente “Made in Italy” JAPAN CAE COLUMN 59 Tohoku, the Beauty of Japan The EnginSoft Newsletter editions contain references to the following products which are trademarks or registered trademarks of their respective owners: ANSYS, ANSYS Workbench, AUTODYN, CFX, FLUENT and any and all ANSYS, Inc. brand, product, service and feature names, logos and slogans are registered trademarks or trademarks of ANSYS, Inc. or its subsidiaries in the United States or other countries. [ICEM CFD is a trademark used by ANSYS, Inc. under license]. (www.ansys.com) modeFRONTIER is a trademark of ESTECO srl (www.esteco.com) Flowmaster is a registered trademark of The Flowmaster Group BV in the USA and Korea. (www.flowmaster.com) MAGMASOFT is a trademark of MAGMA GmbH. (www.magmasoft.de) ESAComp is a trademark of Componeering Inc. (www.componeering.com) Forge and Coldform are trademarks of Transvalor S.A. (www.transvalor.com) AdvantEdge is a trademark of Third Wave Systems (www.thirdwavesys.com) . LS-DYNA is a trademark of Livermore Software Technology Corporation. (www.lstc.com) SCULPTOR is a trademark of Optimal Solutions Software, LLC (www.optimalsolutions.us) Grapheur is a product of Reactive Search SrL, a partner of EnginSoft (www.grapheur.com) For more information, please contact the Editorial Team Newsletter EnginSoft Year 8 n°2 - Newsletter EnginSoft Year 8 n°2 - Summer 2011 CORPORATE NEWS 61 62 EnginSoft UK Key Partners with Cranfield University 3 EnginSoft Gained a New Partner: M E S.r.l., BOOK REVIEWS 63 64 5 FIAT: Storie di Innovazione Tecnologica nelle Automobili Nuove pubblicazioni di NAFEMS To receive a free copy of the next EnginSoft Newsletters, please contact our Marketing office at: [email protected] All pictures are protected by copyright. Any reproduction of these pictures in any media and by any means is forbidden unless written authorization by EnginSoft has been obtained beforehand. ©Copyright EnginSoft Newsletter. EVENTS 65 66 68 69 69 70 71 Advertisement TechNet Alliance Spring Meeting 2011 La piattaforma SW Benimpact Suite di Enginsoft premiata alla mostra-concorso Fare Green EnginSoft France Presents Flowmaster V7.8 Aerospace and modeFRONTIER V4.4 to the Aerospace Industries Il “Forge Italian Team” è presente a Cannes per lo Users’ Meeting 2011 di Transvalor Grande successo di WTT 2011 EnginSoft Event Calendar 12th International Summer School on Aluminum Alloy Technology For advertising opportunities, please contact our Marketing office at: [email protected] EnginSoft S.p.A. 24126 BERGAMO c/o Parco Scientifico Tecnologico Kilometro Rosso - Edificio A1, Via Stezzano 87 Tel. +39 035 368711 • Fax +39 0461 979215 50127 FIRENZE Via Panciatichi, 40 Tel. +39 055 4376113 • Fax +39 0461 979216 35129 PADOVA Via Giambellino, 7 Tel. +39 49 7705311 • Fax 39 0461 979217 72023 MESAGNE (BRINDISI) Via A. Murri, 2 - Z.I. Tel. +39 0831 730194 • Fax +39 0461 979224 38123 TRENTO fraz. Mattarello - Via della Stazione, 27 Tel. +39 0461 915391 • Fax +39 0461 979201 www.enginsoft.it - www.enginsoft.com e-mail: [email protected] COMPANY INTERESTS CONSORZIO TCN 38123 TRENTO Via della Stazione, 27 - fraz. Mattarello Tel. +39 0461 915391 • Fax +39 0461 979201 www.consorziotcn.it EnginSoft GmbH - Germany EnginSoft UK - United Kingdom EnginSoft France - France EnginSoft Nordic - Sweden Aperio Tecnologia en Ingenieria - Spain www.enginsoft.com PAGE 14 OPTIMIZATION UNDER UNCENRTAINTY OF WIND TURBINES ASSOCIATION INTERESTS NAFEMS International www.nafems.it www.nafems.org TechNet Alliance www.technet-alliance.com RESPONSIBLE DIRECTOR Stefano Odorizzi - [email protected] PRINTING Grafiche Dal Piaz - Trento PAGE 47 WEATHER FORECASTING WITH SCILAB The EnginSoft NEWSLETTER is a quarterly magazine published by EnginSoft SpA Autorizzazione del Tribunale di Trento n° 1353 RS di data 2/4/2008 PAGE 8 TYRE SET-UP FOR COMMERCIAL VEHICLE MULTI-BODY MODEL: modeFRONTIER AS A CALIBRATION TOOL ESTECO srl 34016 TRIESTE Area Science Park • Padriciano 99 Tel. +39 040 3755548 • Fax +39 040 3755549 www.esteco.com EnginSoft International Conference 2011 CAE TECHNOLOGIES FOR INDUSTRY AND ANSYS ITALIAN CONFERENCE VERONA ‑ ITALY ‑ 20‑21 OCTOBER 2011 Register fast to take advantage of the Early-Bird rates! www.caeconference.com What is or what does CAE mean today? What is the impact of Virtual Prototyping or the so-called “Engineering Simulation” on today’s product development and manufacturing cycles? Where are we, the CAE Users, going? What are the new paradigms of the application environments? …and, above all, is this a continuing evolution that answers the needs of industry, and more generally speaking, the needs of an ever changing economic and market environment? These questions are debated at the Conference that EnginSoft is organizing for 27 years, true to our values and tradition to provide realistic and tangible insights into what the evolution is about. The software technologies we are discussing certainly play an important role in the challenges you are facing to innovate your business. But there is more than just technology to consider: the enablers on the business front, e.g. organizational, technological and human aspects that carry these technologies to their very role for the success of your business! Are we dealing with “commodities” of the design process, tools for which there is demand, but which are supplied without any qualitative differentiation across their market? Or: could these technologies become true “assets” and thus give your business a competitive edge? What should be done to reach this goal? How should corporations and employees re-engineer themselves? What is the role of the technology transfer operators in this context? All this will be discussed and answered by the conference themes, they will offer to the attendees: • an up-to-date critical overview of the topics and their operational contexts, through various contributions by executives from industry, research, academia and technology providers; • a Think Tank, chaired by experts, focused on the issues of accuracy, reliability, accessibility and applicability of Engineering Simulation, and hence on the possibilities of becoming a true asset of the design process; • an exhibition, unprecedented in the sector in Italy, where software vendors and providers of complementary services and products, will showcase their new solutions and share their visions and strategies with the attendees; • an informal environment where delegates, technology providers, managers and experts can meet and share experiences, address key industry issues and challenges, and find new business opportunities. As a tradition and to add further value to the occasion, the EnginSoft Conference will run concurrently with the ANSYS Italian Conference. In fact, ANSYS is the premier technology partner of EnginSoft, and the major [FEA] software vendor PROVISIONAL LIST OF PAPERS (updated on 19 th July) MECHANICAL SESSION Ansaldo Breda Advanced CAE Design for increasing Railway Vehicles Fire Safety Level Ansaldo Energia New materials and their constitutive models in Ansys. Experience in plasticity and viscoplasticity through z-Ansys. ANSYS Overcoming the Challenges of Hybrid/Electric Vehicle Traction Motor Design CADFEM Effective Electrothermal Simulation for Battery Pack and Power Electronics in HEV/EV CADFEM Swisse - IMI Nuclear Comparison of hydrodynamic mass for CFD-coupled analyses CIRA - SUN Second University Cohesive Zone Material model in ANSYS: a sensitivity analysis on a DCB of Naples test case worldwide. When we speak about ANSYS today, we mean the most complete, co-ordinated, structured, and solid CAE technology available on the market. The combination of the EnginSoft and the ANSYS offering delivers to industry unprecedented and unsurpassable values, and the true “key” to the integration of simulation into the design and production process. Coretech System Integration of Injection Molding and Structure CAE for Mold Deformation Analysis D'Apollonia Computational coupled procedure for probabilistic design of ceramic-based radomes under hypersonic loading Dynamore New Features and Directions in Crash Simulation with LS-DYNA Franco Tosi Meccanica Modeling different contact conditions in blade rows of turbomachinery Key To Metals Development of a Database for Stress-Strain Curves and Cyclic Properties Lombardini Motori A novel approach to simplified representation of threaded connections Magneti Marelli Gasket FEA analysis for AIM application MTA Numerical modeling of Automotive Fuses Melting Time Nuovo Pignone Acoustic Simulation and Optimization of Silencing Systems for Gas Turbine Plants Piaggio CAE analysis of a scooter crankshaft Pierburg Pump Technology Modal Analysis Correlation By Means Of FEM Approaches Pierburg Pump Technology Evaluation of the Lifetime of an Automotive Vacuum Pump Housing Trasfor Fatigue Assessment of a Magnetic Component for Railway Application Università di Padova Simulation and energy saving in simple solar collector with reflective panels and boiler University of Malta Experimental Validation of Finite Element Simulations to predict Welding Induced Residual Stresses CFD SESSION Ansaldo Breda Ansaldo Nucleare ANSYS Don’t miss the 2 events! The 2011 event promises again to be the country’s premier conference on Engineering Simulation, and one of the most important events of its kind globally. CALL for PAPERS: The event organizers welcome contributions on CAE Technology applications. Papers can be submitted on-line, following the guidelines given on the meeting website: http://www.caeconference.com. Deadline for abstract submission: 30th June 2011; Deadline for final paper submission: 30th September 2011. REGISTRATION: The registration fee is € 300,00. Early bird registration fee is € 200,00 until 5th September 2011. For any further information, please visit the official website: http://www.caeconference.com or please contact: Luisa Cunico - EnginSoft SpA Marketing & Communication Office Ph: +39 0461 979474 [email protected] GOLD SPONSORS ANSYS fluid dynamics software at ANSYS 14.0 ANSYS UK Engineering Simulation For Unmanned Vehicle Design and Development CINECA Porting, enabling and parallel performance of OpenFOAM on PLX's CINECA cluster CRF - Centro Ricerche Fiat Fluid refrigerant leak in a cabin compartment: risk assessment by CFD approach EnginSoft MELiSSA Project: plant growing environment characterization EnginSoft GmBH Morphological Shape Optimization of a Multi-Element, Down-Force Generating Wing Magneti Marelli SMART COOLING AIM Heat Exchanger Methodologies Magneti Marelli Design Optimization Inverter Device Nuovo Pignone Combined 1D & 3D CFD Approach for GT Ventilation System analysis Piaggio The use of Ansys CFX to optimise the cooling circuit of an internal combustion engine - 2nd part: thermal analysis SNECMA SNECMA: Time compression with ANSYS Workbench SUPSI - Politecnico Torino Effects of Packed Bed Transport Properties Modeling on CFD Simulations of a Short Contact Time Reactor for Methane Catalytic Partial Oxidation Tecniplast Laminar flow cabinet study Tetra Pak Modelling of a packaging machine filling system using a hierarchical approach Università Bologna Improving the design and the separation performances of membrane modules for H2 purification by CFD simulations Università di Ferrara Numerical Analysis of a Micro Gas Turbine Combustor fed by liquid fuels Università di Genova Consorzio SIRE Engine exhaust jets redeseign for the P180 aircraft using multidisciplinary simulations Università di Roma - Tor Vergata Fluid Structure Interaction (FSI) with RBF Morph: a Generic Formula 1 Front End Università di Padova Effect of Airfoil Geometry on Darrieus Vertical-Axis Wind Turbine Performance Zeco Virtual Testing of a Plant with Hydro Francis Turbine OPTIMIZATION SESSION Ansaldo Breda Structural optimization of new high speed train V300 Zefiro Casappa Optimization of the valveplate geometry for a variable displacement axial piston pump in case of multiple design constraints CIRA Synergy between LS-DYNA and modeFRONTIER to predict low velocity impact damage on CFRP plates Continental Multi-Objective Virtual Optimization for a target GDI injector nozzle flow achievement IVECO M3E ® Thermal comfort in Driverless Light Metro: CFD simulations versus experimental data from climate chamber tests Analysis of the Sloshing of a Large Tank with design-basis and Fukushima-like Seismic Excitations Tyre set-up for commercial vehicle multibody model: modeFrontier as a calibration tool Evaluation of the environmental impact of underground gas storage and sequestration RFI Optimization of solar energy captation Tetra Pak Integration of a fully 3D CFD model in a lumped parameter system simulation through the use of an explorative DOE methodology Università di Bologna - Ferrari Numerical optimization of the exhaust ow of a high-perfomance engine University of Salento modeFRONTIER analysis for reducing emissions of PCDD/F in a sintering ore plant University of Salento Optimized solar collectors for nanofluids applications University of Salento Multi Objective optimization of steel case hardening 8 - Newsletter EnginSoft Year 8 n°2 Tyre set-up for commercial vehicle multi-body model: modeFRONTIER as a calibration tool Iveco is an international leader in the development, manufacture, marketing and servicing of a vast range of light, medium and heavy commercial vehicles. It is endowed with a worldwide commercial network of sale outlets and service points, and strives to provide its customers with class-leading performances. Iveco currently employs over 25000 people all over the world and is present in all five continents. Its products have been renowned for many years as a valuable work tool for the most diverse applications. Introduction Reliability is perhaps the most important feature required from a commercial vehicle, and it must be guaranteed even on the most challenging missions without sacrificing ride comfort. To address these issues, in the Virtual Analysis Department of Iveco we developed multi-body models in order to predict vehicle robustness and comfort since the earliest product development stages. In such models, tyres are one of the most critical components to set up, since their effect on the global vehicle behaviour is remarkable and their modelling very complex. There is currently a great variety of tyre models available to simulate tyre behaviour in multi-body simulations: the one used for this study is Ftire [1]. Ftire is a physical model which describes the most important tyre phenomena, encompassing stiffness nonlinearities, ring flexibility, internal damping, friction, and so on. A very useful feature of Ftire, which makes its use intuitive, is that its input parameters are physical quantities and not just numerical coefficients. These parameters, however, are not fed directly into the tyre model, but are preprocessed to build a mechanical system whose behaviour reflects the original input characteristics. This aspect constitutes a complication in the model set-up, since the passage from input parameters to model is not immediate, with possibly significant interactions among parameters. To fully exploit Ftire potentialities, it is necessary therefore to make use of a tool which allows managing correctly such a complex model. In this article, we describe our experience in using modeFRONTIER as a tool for calibrating Ftire models. The ultimate goal was to achieve a good numericalexperimental correlation in order to make significant reliability and comfort predictions by means of multi-body models. The vehicle used throughout the analysis is an Iveco Daily Van. Input data As a starting point, we used an Ftire model developed by a tyre manufacturer, which reproduces experimental data obtained from tyre test rig. Though originating from an experimental campaign, this model needs further calibrating because of several reasons. Firstly, the calibration must be focused on a specific application, since different tasks involve different phenomena. For comfort and reliability tests as in our case, the model should correctly reproduce processes occurring at frequencies up to about 35 Hz, while for other applications, such as vibrations, higher frequencies are usually of interest. Limiting the range of phenomena permits to tailor the model for a specific task, simplifying the procedure and allowing to achieve better results than it would be possible to obtain with a general calibration. Besides, test rig data are not complete, since in real usage tyres interact with vehicle suspensions, which of course are not present in tyre test rig. The experimental basis for the analysis was created through an extensive measurement campaign on an instrumented vehicle. The vehicle was driven on several different tracks with a contemporary acquisition of tyre forces by means of Wheel Force Transducers (WFTs). Moreover, accelerations and suspension strokes were measured. These signals are used as reference time histories in the model set-up. Finally, all test tracks were laser scanned in order to have a faithful 3D representation of the roads. The numerical data were processed in order to provide a digital depiction of the track in the multi-body simulation environment. Fig. 1 - Multi-body model of Iveco Daily driving on Belgian blocks test track. Newsletter EnginSoft Year 8 n°2 - Procedure The rationale behind the calibration process is to test the tyre behaviour on tracks of different complexity in order to assess both the tyre behaviour and its interaction with the suspensions. The reference tracks used in the analysis are • cleat • pothole • Belgian blocks Fig. 2 - Pareto frontier of numerical-experimental correlation of forces acting along X and Z directions. The cleat and pothole provide as result force and acceleration time histories which can be compared directly between the experimental data and the numerical simulations. The cleat, in particular, includes mainly the tyre enveloping capability, while in the pothole interactions with vehicle suspensions start to have a larger role. Once calibrated the model on these two tracks, the Belgian block track is used to give a final confirmation of the results, as well as to infer about the model predictivity on a real track which is typically used for 9 fatigue and comfort analyses (Fig. 1). The results obtained from the Belgian block track are processed with statistical procedures. The tyre model calibration was considered as a particular case of optimisation, in which for each design the input parameters are the tyre properties, and the outputs are the correlations between the experimental and numerical signals. The objective is to maximise such correlations. The time histories were compared both in time and frequency domain, in order to make sure that the similarity between experimental and numerical data is not only a numerical effect, but it is a token that the occurring phenomena are actually represented in a correct way in the model. All the procedures described hereafter were applied both on front and rear tyre data. Due to the high number of parameters in the model, the first step we took was to perform a general optimisation with the only scope to understand which parameters are influent and which can be discarded as less important. Starting with 20 initial parameters varying within a broad range, it was eventually shown that only 7 of them were truly important. The other parameters had a small influence on the final outcome, so that the further steps could be simplified by neglecting them. After identifying the main inputs, a proper calibration was carried out. In general, the challenging task was to design a unique tyre which provides high numerical-experimental correlation on wheel forces acting both in X and Z directions. The algorithm chosen was a MOGA-II. After about 500 designs it was possible to define a neat Pareto frontier (Fig. 2). Seeing these encouraging results, the vehicle model was revised by modifying some stiffness and damping parameters of the suspensions. After that, a finer optimisation was performed with parameters varying in a small range with a reduced step. This new analysis led eventually to the definition of an even more accurate tyre. Fig. 3 compares the experimental signals with those produced by the tyre model before and after the Fig. 3 - Comparisons of experimental and numerical wheel forces on cleat and pothole. 10 - Newsletter EnginSoft Year 8 n°2 as a final refinement. This multi-step approach allowed reducing the complexity of the model as much as possible while preserving its capability to achieve good experimental-numerical correlation. Another important aspect of this result is that it enabled a simple understanding of the influence of the various parameters on the different signals. It was found, indeed, that the ability to catch the longitudinal phenomena was to some extent in competition with the possibility to correctly represent the events occurring in Fig. 4 - Comparison between numerical and experimental histograms and spectra of the vertical direction. A statistical analysis performed wheel forces measured on the Belgian block track. in modeFRONTIER allowed to sort all parameters calibration when the vehicle drives on cleat and pothole. according to their relevance for longitudinal and vertical The final test was to compare the results obtained on phenomena, evidencing conflicts and indicating what Belgian block track. Fig. 4 shows the results. By trade-offs had to be made (Fig. 5). It is worth remarking comparing histograms and spectra, it can be stated that that the ability to manipulate with insight an Ftire model the tyre model reproduces all the phenomena occurring in should be considered as an important result as the new the frequency range of interest, with a magnitude models obtained. equivalent to that measured on tracks. This allows to infer In conclusion, it was possible to create tyre models with that the results supplied by these numerical simulations an excellent numerical-experimental correlation and to are correct to estimate load ranges and fatigue life of gain understanding of such models. For the future, this vehicle components. will allow to increase customer satisfaction with no cost increase and permit the engineering department to have Discussion and conclusions at its disposal both a tool and a methodology to tackle The model set-up greatly benefited from splitting the reliability and comfort issues. analysis into a series of different optimisations each with a different goal. In particular, the first was meant to References define the range of parameters which were truly [1] http://www.cosin.eu/prod_FTire significant for the task, while the successive ones represent the real model calibration, the last one resulting Acknowledgements I would like to thank my colleagues ing. F. Ragusa and ing. F. Cristiano for the help and support provided throughout the work, as well as for the useful and insightful discussions. Roberto Bianco - Iveco [email protected] Fig. 5 - Cross-correlation among input parameters and output variables (force correlations). About the author R. Bianco graduated in 2004 in Material Engineering at the University of Lecce, with an exploratory work in collaboration with Fiat Avio on the usage of advanced ceramic materials in aeronautical turbine engines. He then achieved a PhD in Bioengineering at the University of Pisa, focusing his research on the development of image processing techniques for high-resolution imaging and cerebral activation detection through Nuclear Magnetic Resonance. He joined Iveco in 2007, where he is currently Performance Engineer for Handling and Ride Comfort, and he is in charge of the Vehicle Dynamics performances in the development of the new range of Iveco light commercial vehicles. Newsletter EnginSoft Year 8 n°2 - 11 Genetic Algorithm Optimization for Soil Parameter Identification As Applied to a Spread Footing Test Using constitutive models to design structures with software based on the Finite Element Method (FEM) requires the identification of a set of soil parameters. As long as the number of constitutive parameters remains reduced, analytical identification methods appear to be suitable. However, further development of more sophisticated constitutive models requires finer and more complex parameter identification processes. In this article, the authors propose a methodology for identifying soil parameters based on inverse analysis of field tests. This study extends a previous analysis carried out by S. Levasseur et al. [1]. The aim of inverse analysis is to determine the unknown values of the constitutive parameters by minimizing the difference between experimental data and analytical or numerical Fig. 1 - Soil layering and footing (a quarter predictions. of the domain) [2] For this identification, the user has to take into consideration the inherent experimental and numerical uncertainties and the imperfect reproduction of the soil behavior by constitutive models. A usual way to do so is to define several “satisfactory” sets of parameters by accepting a certain error. For these reasons, parameter identification (therefore the optimization process) does not need to be extremely precise, but has to be reliable. In other words, determining a set of satisfactory solutions is preferable to searching for a unique precise solution. Moreover, given the fact that tests are rarely conducted singly, it would be interesting to process all the experimental data simultaneously. Indeed different tests could generate different sets of optimized parameters if the inverse analysis is executed separately on each test. To avoid indecision and indetermination, an alternative way to predict a satisfactory set of parameters is to involve simultaneously many experimental responses through the same inverse analysis. The aim of this article is to discuss parameter identification by genetic algorithms. The data come from two pressuremeter tests, which correspond to standard geotechnical tests. The constitutive relationship is a strain-hardening elasto-plastic model. Even though in case of civil structures this type of relationship would provide better results than classical models, it is not used in practice because it leads to difficulties in the parameter identification process. We intend to overcome these difficulties by conducting an objective identification procedure. The validity of the method is tested and discussed by comparing the numerical results of a spread footing test with the experimental results obtained from an international class A benchmark (blind benchmark). 1. Presentation of the benchmark As part of a spread footings benchmark [2], a loading test on a 3x3m square footing was conducted at a sandy site, where numerous soil tests were also performed. According to Briaud and Gibbens [2], the sand is probably lightly overconsolidated by desiccation of fines and removal of about 1 m of overburden at the location of the spread footing test. Two pressuremeter tests (cylindrical cavity expansion tests) have been performed at two different depths: 2 m and 5.9 m. Triaxial tests (axial compression tests with confinement) have been performed at three different effective confining pressures for six specimens sampled at 0.6 m and 3 m, respectively. Figure 1 shows the general soil layering at the site. The participants of the benchmark had to predict the load corresponding to settlements of 25 mm and 150 mm. In this study, for characterizing the in situ soil behavior, pressuremeter curves are considered. They give the evolution of the pressure applied within the probe as function of the ratio u(a)/a, where a is the radius of the probe and u(a) the displacement of the wall. The first part of the curve is ignored considering non-reliable measurement due to the remolding effect (see Fig.2). Considering the depths at which the in situ tests are performed and the soil layering, the simulation takes into account only two different layers. 12 - Newsletter EnginSoft Year 8 n°2 3.2 Identification procedure The identification procedure is considered as an optimization problem, more specifically as the minimization of a cost function. Due to some wellknown drawbacks of deterministic methods and to the limited use of genetic algorithms (GA), GA are involved in this optimization. Keeping in mind the available experimental data for the inverse analysis (two pressuremeter tests), two cost functions are defined and minimized (two-objective problem). The fact that GA allow the user to determine reliably the Pareto frontier in one single run is a second reason for selecting them instead of deterministic methods. Fig. 2 - Experimental and numerical results of the two pressuremeter tests 2. Constitutive model A strain-hardening elasto-plastic model [3], implemented in CESAR-LCPC FEM software, is used in this study in order to explore the relevance of the model. This model is characterized by seven parameters. The four following parameters, reference elastic modulus Eref, friction angle ϕp, cohesion c and hardening parameter a, have a major influence in the design of spread footings. Therefore, high attention has to be paid to their identification. The friction angle is identified from triaxial tests. So the identification procedure by inverse analysis is conducted with three parameters, Eref, c and a. Moreover, taking into account the fact that a is not a true intrinsic parameter, four parameters are optimized: two different values of a, corresponding to the two different pressuremeter tests, one cohesion value c assuming the homogeneity of the soil profile and the value of Eref, assuming a certain evolution of the elastic modulus as a function of the mean pressure. The other parameters, whose influence is minor, are fixed according to additional experimental data or to experience-based knowledge. ϕp = 35 degrees, rel = 0.7, v = 0.2, ϕc = 30 degrees, Κ0 = 0.7 3. Identification of the constitutive parameters from pressuremeter tests 3.1 FEM modeling An axisymmetric condition (lateral direction) and a plainstrain condition (vertical direction) are assumed for the modeling of the pressuremeter test. The calculations assume small strains, which is justified by the values of the local strains which are always smaller than 10% (without considering the close surrounding area of the probe). The loading is displacement controlled and, at each step, the same displacement increment is applied all along the probe. The parameter range values of Eref, c and a are determined from resonant column test results on remolded samples [2] and from some prior simulations. The identification procedure is based on the successive use of two different codes: CESAR-LCPC for the direct modeling scheme and modeFRONTIER for the optimization process. The optimization is carried out by using MOGA-II. Fig. 3 - Pareto Frontier of the multiobjective identification The initial population is set to 200 individuals. The probability of directional cross-over is set to 0.5, the probability of selection to 0.05 and the probability of mutation to 0.1. Optimization is considered as completed when no improvement concerning the determination of the Pareto frontier is made for 5 consecutive generations. Figure 3 shows the Pareto frontier given by MOGA-II. The results of the simulations are provided in Figure 2. For information, a similar study has been carried out by minimizing a unique function (weighted sum approach) with the simplex algorithm. The same weight has been applied for both initial cost functions (see Fig. 3). By means of a fair computational cost, the geotechnical engineer obtains a set of mathematical solutions useful for a selection of parameter set(s) having a geotechnical meaning. Newsletter EnginSoft Year 8 n°2 - Fig. 4 - Comparison of the experimental spread footing settlements, the results of the class A benchmark and the numerical predictions assuming the strain-hardening elasto-plastic model 4. Predictions of spread footing settlement The sets of Pareto optimal parameters which provide values without geotechnical meaning are not considered. Among the remaining sets, the set which provides the best representation of the pressuremeter tests is selected and used for the simulation of the spread footing. Figure 4 compares the experimental and numerical settlement curves. These curves lead to four remarks: • Compared to most participants in the benchmark, this prediction complies better with the experimental observations. It is obvious that the conditions between this study and the predictions given by the participants in the benchmark are different since the benchmark results were already known. However, our prediction given in Figure 4 results from an objective process. The only assumption made in this study concerns the size of the elastic domain rel and consists of assuming a certain level of overconsolidation. rel could have been estimated if the beginning of the pressuremeter curves could have been involved in the inverse analysis. Considering the predictions of some participants, some constitutive parameters used in their studies may have not been properly determined. This can be due to a non-efficient identification technique; • The difference between our simulation and the experiment is mainly due to some defects in the constitutive relationship and to the nonrepresentativeness of the available pressuremeter stress path; • In terms of inverse analysis, the mathematical best set of parameters is not necessarily the physical best set of parameters, considering the noisy error functions due to measurement errors, the imperfect reproduction of the reality by constitutive models, the numerical method for resolution and the design simulation. Since GA determine satisfactory sets of parameters, an 13 experienced geotechnical engineer can (1) select several sets of parameters having a physical meaning and (2) use them for the design simulation to quantify the uncertainties related to the identification process. This method has not been carried out in this article because the Pareto optimal values of the parameters are close to each other and therefore do not lead to noticeable differences for the spread footing simulation; • This study represents a first approach of a multiobjective analysis on an in situ test. It is incomplete insofar as, even if the two pressuremeter tests are performed at different depths, the stress paths are similar. However, there are many different stress paths in soil subjected to construction, so it would be interesting to test multiobjective analysis on various laboratory and in situ soil tests. ACKNOWLEDGEMENT The authors would like to thank J.L. Briaud (Texas A&M Univ.) for making available information about the spread footing benchmark. REFERENCES [1] Levasseur S, Malécot Y, Boulon M, Flavigny E. Statistical inverse analysis based on genetic algorithm and principal component analysis: Applications to excavation problems and pressuremeter tests. International Journal For Numerical and Analytical Methods in Geomechanics 2010; 34: 471-491. [2] Briaud JL, Gibbens RM. Predicted and Measured Behavior of Five Spread Footings On Sand. Geotechnical Special Publication 41, ASCE: New-York, 1994. [3] Dano C, Hicher PY. A constitutive model for uncemented and grouted sands. In Fifth European Conference on Numerical Methods in Geotechnical Engineering - NUMGE 2002, Paris, France, Mestat P (ed). Presses de l’ENPC/LCPC: Paris, 2002; 57-62. Y. Riou, A. Papon*, C. Dano, P.-Y. Hicher Research Institute in Civil and Mechanical Engineering, UMR CNRS 6183 - Ecole Centrale Nantes University of Nantes, 1 rue de la Noë, BP 92101, 44321 Nantes cedex 3, France *For more information about this article, please contact Aurélie Papon ([email protected]). This document has been published by courtesy of IJNAMG. An extended version of this article is published in the International Journal for Numerical and Analytical Methods in Geomechanics (http://dx.doi.org/10.1002/nag.1019, DOI: 10.1002/nag.1019) 14 - Newsletter EnginSoft Year 8 n°2 Optimization Under Uncertainty of Wind Turbines 1. Introduction Wind turbines are multi-physics devices in which the aerodynamic performance, the structural integrity of the blades, the energy conversion toolbox and the acoustic impact has to be carefully examined to achieve an effective design. Each one of these aspects introduces considerable hurdles to detailed simulations. automatically. In Leland a “job” is an instance of the entire multi-physics simulations, which might include grid generation, morphing, flow solution and structure coupling, acoustic analysis and post-processing. The main objective of Leland is to set-up a candidate design as a job and to manage it until it is completed, to gather relevant results that are used to inform the robust optimization process. The aerodynamic performance is dominated by the design of the blade cross-sections and the flow characterization is complicated by the need to predict laminar/turbulent transition under a variety of clean and perturbed wind conditions, the inherent angle of attack variability associated with rotation, the presence of dynamic stall, aeroelasticity, etc. In spite of the development of advanced computational fluid dynamic tools that can predict with reasonable accuracy the aerodynamic performance of helicopter rotors [1], the computations remain extremely expensive and often rely on simple models to capture important effects, such as transition, and are generally not considered to be predictive for extreme events such as blade stall. The various components of Leland are introduced below. ROpt (robust optimization), shown in figure 1.a, is the engine behind this design environment. Given the design and/or uncertain input variables, ROpt continuously generates new design proposals (samples) based on the evolutionary strategy and/or analysis of the uncertainty space, until a convergence criterion is met. The genetic algorithm is based on nondomination sorting of the candidate designs coupled with an adaptive crossover and mutation. The impact of uncertainties is characterized in ROpt via the inhouse Simplex Stochastic Collocation (SSC) algorithm [2,3], which combines the effectiveness of random sampling in higher In this case study we focus on building a flexible computational infrastructure based on low-fidelity models that are connected together in a Matlab environment called Eolo. There are two main advantages resulting from this choice: (i) control and flexibility in using different models developed for capturing complex phenomena, (ii) low computational costs. It is indeed the second aspect that fundamentally enables us to perform analysis and optimization under uncertainty of this complex configuration. 2. A parallel computational framework for robust optimization: Leland Due to the high cost of objective function evaluations in multidisciplinary frameworks (i.e. aerodynamics, structure, control, etc.), we have developed an environment (hereafter called Leland) for optimal resource allocation on a UNIX multiprocessor cluster. Leland can manage multiobjective robust optimization by using state of the art genetic algorithms tightly coupled with an in-house uncertainty quantification strategy, the stochastic collocation algorithm. The structure of Leland is based on a workflow through I/O subsystems that represent the software environments (i.e. X-foil, Fluent, FEM, NREL Tools, etc.) involved in the process. This environment is designed to run natively on any highperformance computing (HPC) system, by integrating with the job-submission/queuing system (for example Torque). Moreover, it does not require administrator permissions: once the analysis is initiated multiple simulations are submitted and monitored Fig. 1 - Leland Framework: Dealing with uncertainty within an optimization loop flowchart dimensions (multiple uncertainties) with the accuracy of polynomial interpolation. The main characteristics of the robust optimization method implemented in ROpt are (i) to avoid any assumptions on the quality of the objective function (i.e. Gaussian, expressible in terms of few statistical moments, etc.) or (ii) an increase of the objective dimensionality (by formulating the problem in a multiobjective fashion). The Job Liaison, shown in figure 1.b, defines the characteristics of each single job and continuously monitors the progress of the simulations until completion in order to communicate the objective evaluations back to ROpt. The Job Submission engine, shown in figure 1.c, ensures that the correct number of jobs is always running on the cluster. The Newsletter EnginSoft Year 8 n°2 - variables (number of cores, number of jobs, etc.) from the input file that are used to initialize the runs are dynamic, meaning they can be edited on the fly and the system will respond accordingly. 3. Eolo: a multi-physics model for wind turbines analysis The geometrical description of the turbine blades is based on the specification of three airfoils at the root, mid-span and tip. Simple linear interpolation is used to construct the geometry at the other cross-sections and the local aerodynamic analysis is carried out using a potential flow method with interactive viscous correction. The tool we used is Xfoil [4] which includes a model for boundary Fig. 2 - Eolo flowchart layer transition based on the eN method. This tool is used to determine the aerodynamic force coefficients polars in a range of angle of attacks ranging from 15° to 25° to cover the range of incidences experiences during a full rotation. Xfoil is not expected to be accurate in the prediction of stall, because of the presence of extensive flow separation and possibly unsteady effects. Hence a correction to the polar curve is introduced, based on Viterna and Corrigan [5] model that provide a correction of the lift and drag coefficient at high angle of attack. A final correction to the aerodynamic coefficients is then related to the presence of finite-span effects. Fluid structure interactions play an important role in the determination of the structural integrity of the turbine blades and in the overall aerodynamic performance. The geometrical description of the blade is used as a starting point to define span-varying properties relevant to its composite structure. The NREL PreComp [6] computes cross-coupled stiffness, inertia and offsets of the blade shear center, tension center, and center of mass with respect to the blade pitch axis. These quantities are then used to determine the a low-order model for the rotor, the tower and the drivetrain shaft. Specifically, the characteristics of a rotating-beam equivalent to the blade are computed using NREL BModes [7], a finite-element code that evaluates the deformation modes. The Viterna corrected polars at certain nodes along the span, the flapwise and BModes modal shapes and the PreComp properties are then used as input to NREL FAST [8] (Fatigue, Aerodynamics, Structures, and Turbulence) which is a comprehensive aeroelastic simulator capable of predicting both the extreme and fatigue loads of two- and three-bladed horizontal-axis wind turbines. This code is based on NREL AeroDyn [9] solver, an element-level wind-turbine aerodynamics analysis routine. It requires information on the status of a wind turbine from the dynamics analysis routine and a wind file describing the atmospheric conditions. It returns the 15 aerodynamic loads for each blade element to the dynamics routines. The aerodynamic performance of wind turbines is dominated by the wind conditions. Atmospheric boundary layers are subject to large variability in wind direction and intensity with largely unsteady dynamics and frequent gusts. In Eolo we generate realistic wind conditions using the NREL TurbSim [10] tool, which constructs a stochastic inflow with precisely specific velocity fluctuation spectrum. We collect information related to nocturnal boundary layer flows and TurbSim create the resulting spatio-temporal turbulent velocity field. The NREL prediction of aeroacoustic noise is based on six different noise sources that are assumed to independently generate their own noise signature. The assumption of independence is founded on the idea that the mechanisms for each noise source are fundamentally different from each other or occur in different locations along a turbine blade, such that they do not interfere with one another: turbulent boundary layer trailing edge, separating flow, laminar boundary layer vortex shedding, trailing edge bluntness vortex shedding, and tip vortex formation [11,12]. The NREL Crunch [13] is used for the post-processing of statistical information and estimation of the fatigue life. 4. Optimization under uncertainty In this case study the objective was to maximize the power coefficient [-] while reducing the Sound Pressure Level [dB] at a microphone located 20m downwind of the turbine at ground level. The airfoils at the root, mid-span and tip of the blade are shaped adding to the baseline geometry 5th order B-splines, Fig. 3 – Annual wind speed spectrum, Acqua Spruzza (ITALY) 16 - Newsletter EnginSoft Year 8 n°2 4.2 Uncertainty Quantification: insect contamination Several studies on wind turbines and fixed wing illustrate the effect of insect and dirt contamination on the overall aerodynamic performance. Insects are present in the lower layer of the atmosphere, with a density rapidly decreasing from ground level to 500 ft. The morphology of the insects is a function of the altitude and the estimation of the actual contamination Fig. 4 – Left: Power coefficient over the wind spectrum; Right: Sound Pressure Level depends on the operating conditions. In wind-turbines the effect of contamination can be particularly respectively on their bottom and upper surfaces. The Ystrong when the blade cross-sections are designed to support coordinates of the control points are assumed as design mostly laminar flows. The presence of insect contamination variables. Additionally 3th order B-splines are added to the produces boundary layer disturbances that initial twist and chord distribution in can lead to early transition to turbulence order to adapt the blade shape. The Ywith a deterioration of the aerodynamic coordinates of the twist and chord performance. This is the motivation for control points are assumed as additional including insect contamination as a design variables. Two checks were leading cause of uncertainty in the performed on each generated airfoil to analysis of wind turbines. Experimental remove geometries which were selfstudies of the effects of surface protrusions intersecting or excessively wavy (steps) on the transition to turbulence in (constrained optimization). boundary layers lead to modifications to the eN method to capture the observed 4.1 The annual meteorological transition modifications, via a reduction of conditions the critical N-factor. The energy produced by a wind turbine is Fig. 5 – Convergence of the mean for the Power Coefficient usually expressed as an annual average, We consider three independent variables describing the N-factor but since production falls off dramatically as the wind speed ranging from clean conditions (N=9) to transition bypass (N=1) drops, most of the time the wind turbine is producing well below at the root, mid-span and tip sections. An uncertainty analysis its expected rate. It is important to characterize the wind reveals that higher values of the N-critical factor (e.g. lower turbine behavior resulting from the measured wind variability to contamination) at tip region lead to a better performance: this assess the effective performance. For land based turbines, the can be justified due to the highest contribution of the outer wind speed distribution is usually approximated by a Weibull fit. airfoils to the mechanical torque at the shaft. We extracted data regarding nominal wind speed, turbulence More importantly, in terms of overall performance, the intensity and direction at a site (Acqua Spruzza, Italy) where a introduction of insect contamination leads to a decrease of wind turbine farm was built by ENEL S.p.A. within a project performance with respect to the clean configuration evaluating the performance of commercial medium-sized (deterministic case). Fig. 5 shows the results of the uncertainty turbines operating in complex terrain and very hostile climate. analysis in terms of expected value of the power coefficient A large collection of wind measurements is summarized in Fig. 3 (mean) vs. the deterministic case, showing in terms of wind speed distribution. a reduction of about 16 %. In Fig. 5 it is also possible to notice that the estimate of In this case study a small number of the mean power coefficient obtained with SSC samples are used to propagate the SSC method described above reached the meteorological conditions into convergence after few dozen evaluations. the quantities of interests for the process of optimization, hence the 4.3 Optimization Under Uncertainty power coefficient is averaged taking An initial multiobjective optimization into account the probability density study was carried out ignoring the insect spectrum of the wind speed (first contamination and the resulting Pareto objective, maximization). The same front is shown in Fig. 6. The baseline [red] procedure is used for the Overall blade was already optimized by the Sound Pressure Level (second manufacturer, but due to the steep objective, minimization). Figure 6 – Deterministic Pareto Frontier Newsletter EnginSoft Year 8 n°2 - [2] [3] [4] Fig. 7 – Deterministic Trade-off blade design characteristics of the Pareto at a high power coefficient it was possible to find a trade-off [green] design considerably less noisy than the baseline with a relatively negligible reduction of the power coefficient. Successive analysis included the uncertainties due to the insect contamination. The deterministic Pareto front was used as an initial scenario for the procedure. In Fig. 8 a close-up of the design space close to the previous trade-off design is considered. It is important to note that in the presence of uncertainty, each new design corresponds to a probabilistic estimate, and thus includes a large number (a cloud) of actual results. This is illustrated in Fig. 8. Typically only the expected performance (the statistical average of the results cloud) is considered and, therefore a new locus of optimal configurations is extracted: we will refer to this front as the “mean Pareto”. [5] [6] [7] [8] [9] [10] [11] [12] [13] [14] Fig. 8 - Probabilistic Pareto Frontier, detail 17 P., Pitsch, H., Schluter, J., Svard, M., Van der Weide, E., You, D. and Wu, X., 2006, CHIMPS: A high-performance scalable module for multi physics simulations. AIAA Paper 2006 5274. Witteveen, J.A.S., Iaccarino, G., Simplex Elements Stochastic Collocation for Uncertainty Propagation in Robust Design Optimization 48th AIAA Aerospace Sciences Meeting, Orlando, Florida (2010) AIAA-2010-1313. Witteveen, J.A.S., Iaccarino, G., Simplex elements stochastic collocation in higher-dimensional probability spaces, 51st AIAA/ASME/ASCE/AHS/ASC Structures, Structural Dynamics, and Materials Conference, Orlando, Florida (2010) AIAA-2010-2924. Drela, M., Xfoil: An Analysis and Design System for Low Reynolds Number Airfoils, Low Reynolds Number Aerodynamics (Conference Proceedings), edited by T.J. Mueller, University of Notre Dame 1989. Tangler, J., Kocurek, J.D., Wind Turbine Post-Stall Airfoil Performance Characteristics Guidelines for Blade-Element Momentum Methods, NREL/CP-500-36900. NWTC Design Codes (PreComp by Gunjit Bir). http://wind.nrel.gov/designcodes/preprocessors/precomp. Last modified 26-March-2007; accessed 26-March-2007. NWTC Design Codes (BModes by Gunjit Bir). http://wind.nrel.gov/designcodes/preprocessors/bmodes. Last modified 20-March-2008; accessed 20-March-2008. NWTC Design Codes (FAST by Jason Jonkman, Ph.D.). http://wind.nrel.gov/designcodes/simulators/fast/. Last modified 05-November-2010; accessed 05-November-2010. NWTC Design Codes (AeroDyn by Dr. David J. Laino). http://wind.nrel.gov/designcodes/simulators/aerodyn. Last modified 31-March-2010; accessed 31-March-2010. NWTC Design Codes (TurbSim by Neil Kelley, Bonnie Jonkman). http://wind.nrel.gov/designcodes/preprocessors/turbsim. Last modified 25-September-2009; accessed 25-September-2009. Moriarty, P., and Migliore, P., 2003 Semi-empirical aeroacoustic noise prediction code for wind turbines National Renewable Energy Laboratory Brooks, T., Pope, D., and Marcolini, M., Airfoil Self-Noise and Prediction, NASA Reference Publication 1218, National Aeronautics and Space Administration, 1989. NWTC Design Codes (Crunch by Marshall Buhl). http://wind.nrel.gov/designcodes/postprocessors/crunch/. Last modified 01-April-2008; accessed 01-April-2008. Petrone, G., de Nicola, C., Quagliarella, D., Witteveen, J. And Iaccarino, G., Wind Turbine Performance Analysis Under Uncertainty, AIAA 2011-544. The effect of the insect contamination is to displace the deterministic trade-off solution [green circle] away from the mean Pareto. A new trade-off solution [Ropt, orange triangle] emerges as a balance between best performance and minimum spread (variance) due to the insect contamination. Giovanni Petrone1,2, John Axerio-Cilies1, Carlo de Nicola2 and Gianluca Iaccarino1 References [1] Alonso, J. J., Hahn, S., Ham, F., Herrmann, M., Iaccarino, G., Kalitzin, G., LeGresley, P., Mattsson, K., Medic, G., Moin, 1. Mechanical Engineering, Stanford University 2. Dipartimento di Progettazione Aeronautica, Università Federico II di Napoli 18 - Newsletter EnginSoft Year 8 n°2 Ottimizzazione cinematica di una pressa meccanica link-drive con tecnologia ANSYS Workbench e modeFRONTIER In questo articolo viene ripreso il test case di una pressa meccanica per imbutitura profonda a cui viene applicato un processo di ottimizzazione cinematica per incrementare le principali prestazioni operative della macchina. Ricordiamo che la qualità finale del prodotto imbutito è fortemente legata ai parametri del processo di lavorazione, tra i quali spicca per importanza la velocità di discesa del punzone nel tratto di corsa in cui la lamiera viene deformata (intervallo di lavoro). Idealmente, questa velocità dovrebbe essere bassa, per realizzare una deformazione graduale del materiale, e costante per evitare la formazione di pieghe e striature superficiali. tà. Solitamente vengono coinvolti nell’ottimizzazione esclusivamente i parametri per i quali si possono accettare delle modifiche, sempre e comunque all’interno di limiti prefissati e nel rispetto di eventuali vincoli. Per quanto concerne le funzioni obiettivo, esse sono definite a partire da grandezze scalari che descrivono in modo univoco il comportamento del sistema che si sta cercando di ottimizzare. La sintesi degli indici scalari è completamente delegata all’utente, che deve estrarla a partire dai risultati delle simulazioni. Si tratta di un’operazione cruciaFig. 1 - Elenco dei parametri dimensionali utilizzati le, dal momento che una definizione lacunell’ottimizzazione nosa degli obiettivi può pregiudicare la qualità dell’ottimizzazione sia in termini di risultati, sia in termini di tempo complessivo di calcolo. Per rispettare questi requisiti è possibile equipaggiare le In relazione all’ottimizzazione della pressa “Link-Drive”, le presse meccaniche da imbutitura con un meccanismo denovariabili di input possono essere fatte coincidere con i prinminato “Link-Drive”. Grazie al suo schema cinematico, il cipali parametri dimensionali dei membri del meccanismo “Link-Drive” produce un tratto con andamento regolare e (Figura 1). Per tutti i parametri si è scelto di attribuire una quasi costante della velocità. Inoltre, la sua maggiore comvariabilità del ±20% rispetto al valore inizialmente previsto plessità lo rende più flessibile rispetto ai meccanismi tradidal progettista della macchina. Con questi margini, la gamzionali: variando le dimensioni dei membri si possono ottema delle configurazioni ottenibili (chiamati anche Design) è nere diverse curve di velocità del punzone. decisamente ampia. Nella newsletter “EnginSoft Anno 8 - n°1” abbiamo messo in rilievo le possibilità di analisi offerte dall’implementazione Le funzioni obiettivo devono essere definite con particolare parametrica di un modello di pressa “Link-Drive” all’interno attenzione alle prestazioni che si vogliono massimizzare o di ANSYS Workbench 13 (ambiente Rigid Body Dynamics). In questo nuovo articolo dimostreremo che l’utilizzo di modelli minimizzare. Per quanto detto in precedenza, nella pressa parametrici, in accoppiamento con un ottimizzatore multio“Link-Drive” è fondamentale mantenere la velocità del punzone bassa e costante all’interno della corsa di lavoro. biettivo come modeFRONTIER 4, consente di massimizzare i Questo si traduce nei seguenti tre obiettivi: vantaggi derivanti dalla simulazione cinematica e dinamica dei meccanismi articolati. I. minimizzazione della velocità massima del punzone: durante la corsa di discesa, la velocità è sempre positiva; riducendone il valore massimo si diminuisce la probabiliDefinizione del problema di ottimizzazione tà di strappamento del materiale imbutito; L’ottimizzazione è un approccio numerico che si propone di II. minimizzazione del valore assoluto dell’accelerazione del individuare massimi e/o minimi di una funzione di molte vapunzone: è un indice della variabilità della velocità, un riabili. Il suo impiego nel campo della simulazione diviene valore contenuto implica costanza della velocità; particolarmente efficace nel momento in cui le funzioni da III.minimizzazione del valore assoluto del jerk massimo del analizzare esprimono le prestazioni di un sistema descritto da punzone (jerk = derivata prima dell’accelerazione): indica un modello virtuale parametrico. la variabilità dell’accelerazione, un valore contenuto Le variabili di input del problema di ottimizzazione sono implica invece una variazione lineare della velocità. scelte sulla base di considerazioni di opportunità e fattibili- Newsletter EnginSoft Year 8 n°2 - I tre obiettivi sono di natura cinematica, ma va detto che sarebbe possibile affiancare ad essi anche degli obiettivi, ad esempio, dinamici, strutturali, economici, etc. Dopo aver definito le variabili di input e gli obiettivi del problema di ottimizzazione, risulta utile definire eventuali vincoli. I vincoli sono condizioni numeriche che si applicano, in modo generale, a qualsiasi variabile coinvolta nell’ottimizzazione. Lo scopo dei vincoli è quello di scartare automaticamente le configurazioni del meccanismo che non sono realizzabili o, più in generale, che non garantiscono il rispetto di altri criteri costruttivi. Per la pressa “Link Drive” sono stati definiti i seguenti vincoli: • vincolo di assemblabilità: rimuove le configurazioni non assemblabili a causa delle inadeguate lunghezze dei membri coinvolti; • vincolo di punto morto inferiore: serve a garantire che le configurazioni del meccanismo presentino una la luce minima tra punzone e matrice. Questo vincolo, assicura che la pressa permetta di stampare pezzi di altezza minima garantita; • vincolo sull’angolo dell’eccentrico: serve a garantire che il punto morto inferiore del punzone sia raggiunto con una rotazione dell’eccentrico L4 maggiore di 180° misurati rispetto alla posizione dell’eccentrico occupata quando il punzone è al punto morto superiore. Il rispetto di questo vincolo assicura una maggiore estensione dell’intervallo di lavoro. Struttura del progetto in modeFRONTIER Un generico progetto costruito in modeFRONTIER comprende quattro aree di interesse: 1. Variabili di input e relativi vincoli; 2. Algoritmi e pianificatori di analisi; 3. Operazioni (simulazioni e calcoli); 4. Variabili di output, relativi vincoli, e obiettivi. Lo schema utilizzato per ottimizzare la pressa è riportato in Figura 2: Nel blocco dei pianificatori, sono distinguibili un nodo “DOE” ed un nodo “Algoritmi”. Il primo genera un insieme di configurazioni che serve da punto di partenza per gli ottimizzatori. Il secondo serve a definire gli algoritmi di ottimizzazione ed i relativi parametri di controllo. Fig. 2 - Schema di modeFRONTIER utilizzato per il processo di ottimizzazione 19 Nella sezione delle operazioni sono racchiuse tutte le simulazioni ed i calcoli che trasformano le variabili di input nelle variabili di output necessarie a definire gli obiettivi. Nel caso in esame, le operazioni necessarie sono le seguenti: 1. le variabili di input vengono passate al nodo di ANSYS Workbench 13 che provvede a realizzare una simulazione multibody a corpi rigidi della pressa. I risultati vengono automaticamente esportati in un file di testo al termine di ogni simulazione; 2. il file viene processato da uno script Visual Basic che esegue un ricampionamento dei segnali prodotti dal modello multibody; i risultati sono salvati in un nuovo file di testo; 3. i dati ricampionati vengono caricati in un foglio Excel che provvede al post processamento finale e quindi alla estrazione degli output scalari di interesse. Analisi dei risultati In primo luogo è utile verificare l’efficacia del processo di ottimizzazione appena effettuato. A questo scopo, risulta conveniente considerare l’evoluzione delle variabili obiettivo al progredire dell’ottimizzazione. La Figura 3 illustra la variazione dei primi due obiettivi (sui tre prescelti) operata da modeFRONTIER in circa 2500 Design. L’efficacia degli algoritmi è dimostrata dalla pendenza negativa delle curve di regressione, in relazione al fatto che entrambi gli obiettivi dovevano essere minimizzati. Il grafico permette di osservare come l’efficacia degli algoritmi sia maggiore nella prima fase del processo di ottimizzazione, quando evidentemente i margini di miglioramento sono più consistenti. A partire, all’incirca, dal Design n. 1500, le curve di regressione sono quasi orizzontali, a conferma del fatto che ulteriori miglioramenti di limitata entità sono possibili. Nel caso di ottimizzazioni mono obiettivo, il processo di ottimizzazione cerca i design che riducono o incrementano il valore del singolo obiettivo scalare. L’ottimo è univocamente determinato dalla configurazione che produce il minimo o il massimo. Nel caso delle ottimizzazioni multiobiettivo, il processo di ottimizzazione cerca di individuare i design che riducono o incrementano simultaneamente i valori degli obiettivi predefiniti. Mentre nelle fasi iniziali dell’ottimizzazione ciò accade regolarmente, man mano che la ricerca prosegue ci si imbatte in design per i quali non è possibile migliorare alcuni degli obiettivi senza peggiorare gli altri. Le configurazioni con queste caratteristiche sono tutti design ottimi perché non è possibile ottenere un ulteriore miglioramento delle prestazioni. Il loro insieme, viene chiamato frontiera di Pareto del problema multiobiettivo. La molteplicità delle soluzioni incluse in questo insieme di punti, rende la successiva scelta del design ottimo non univoca. 20 - Newsletter EnginSoft Year 8 n°2 Fanno eccezione a questa regola i design collocati in basso a sinistra per i quali la correlazione è localmente negativa. Al termine della ottimizzazione, la gran parte dei design della frontiera di Pareto individuata da modeFRONTIER garantisce migliori prestazioni rispetto al design di partenza. Ciò conferma che il meccanismo presentava margini di miglioramento che sono stati adeguatamente sfruttati dagli algoritmi del software. Il design ottimo finale va scelto tra quelli che popolano la frontiera di Pareto, escludendo quelli che hanno prestazioni peggiori rispetto al design di partenza (aree bianche dei grafici). Benché la scelta all’interno di questa selezione possa essere del tutto arbitraria, Fig. 3 - Variazioni della velocità massima e dell’accelerazione massima assoluta durante è utile seguire un criterio univoco che permetta di inl’ottimizzazione dividuare il compromesso più soddisfacente possibile. Inevitabilmente occorrerà accettare uno o più compromessi La strategia che appare vincente in questo contesto è quella per selezionare il design finale. che somma i miglioramenti relativi ottenuti sui singoli obietLa Figura 4 include due grafici che rappresentano i design getivi. La formalizzazione numerica di questo concetto è rapnerati da modeFRONTIER durante l’ottimizzazione. Il grafico presentata nella seguente formula: di sinistra è tracciato sul piano velocità massima – jerk massimo; mentre quello di destra è tracciato sul piano velocità massima – accelerazione massima. Le grandezze si riferiscono al moto del punzone e sono valutate all’interno del range di lavoro. Ricordando che l’ottimizzazione è stata pensata per ridurre Dove: tutti e tre gli obiettivi simultaneamente, la disposizione dei C è il valore numerico complessivo del criterio di scelta design sui grafici permette di trarre importanti conclusioni. Wi è un valore positivo che indica l’importanza (peso) del Sul grafico di sinistra, la frontiera di Pareto ha una pendeni-esimo obiettivo za negativa, che indica una correlazione inversa tra i due Oi è il valore dell’i-esimo obiettivo per il design preso in obiettivi coinvolti: non si può ridurre la velocità massima, esame senza incrementare il jerk massimo. Viceversa, sul grafico di Oi,min è il valore minimo dell’i-esimo obiettivo raggiunto suldestra, i design della frontiera di Pareto giacciono sostanziall’intera popolazione di design mente lungo una retta con pendenza positiva, ad indicare che Oi,max è il valore massimo dell’i-esimo obiettivo raggiunto suli due obiettivi qui rappresentati evolvono concordemente. l’intera popolazione di design Figura 4 – Rappresentazione dei design in funzione degli obiettivi Newsletter EnginSoft Year 8 n°2 - 21 ma, il risultato trovato dagli algoritmi di modeFRONTIER è ampiamente superiore. Oltre ad avere prodotto ulteriore riduzione di accelerazione e velocità massime, siamo riusciti a contenere anche il jerk massimo, a tutto vantaggio delle vibrazioni generate dalla macchina. Il confronto prestazionale delle due macchine è ben evidenziato nel grafico di Figura 5. Il range di lavoro delle due macchine si ottiene per diversi angoli di manovella. Si noti che il punzone della pressa ottimizzata da modeFRONTIER si muove circa 30 mm/s più lentamente del pressa “concorrente”. Fig. 5 – Velocità del punzone nel ciclo della pressa Nella sommatoria si utilizza la prima equazione nel caso di un obiettivo da massimizzare ( ), la seconda equazione se l’obiettivo i-esimo deve essere minimizzato ( ). Applicando questo metodo, si attribuisce ad ogni design un indice scalare che indica la sua attitudine a produrre un miglioramento prestazionale relativo in relazione agli obiettivi precedentemente definiti. Il migliore tra i design generati risulta essere quello per il quale il coefficiente C è massimo. Per la pressa “Link Drive” è stato scelto il seguente ordine di priorità per gli obiettivi: • minimizzazione del valore assoluto dell’accelerazione massima (W1=4); • minimizzazione della velocità massima (W2=2); • minimizzazione del valore assoluto del jerk massimo (W3=1). Al termine del calcolo, il design ottimo finale coincide con quello evidenziato mediante un pallino rosso in Figura 4. Questa configurazione risulta ampiamente migliore rispetto alla configurazione da cui si è partiti. A completamento di quanto esposto si è voluto confrontare il risultato ottenuto mediante ottimizzazione multiobiettivo guidata da modeFRONTIER con il risultato di una ottimizzazione condotta sulla stessa macchina e descritta nell’articolo “Bojan Vohar, Karl Gotlih et Joze Flasker, Optimization of Link-Drive Mechanism for Deep Drawing Mechanical Press”, Journal of Mechanical Engineering n. 48 (2002), pp. 601612”. I modelli utilizzati nella nostra applicazione ed in quella citata sono sostanzialmente identici. Gli autori dell’articolo si sono limitati ad ottimizzare il meccanismo imponendo la riduzione della accelerazione massima nel range di lavoro (ottimizzazione mono-obiettivo). Benché abbiano ottenuto un buon risultato rispetto al punto di partenza in termini di accelerazione massima e velocità massi- Per maggiori informazioni: Fabiano Maggio - EnginSoft [email protected] L’esempio del meccanismo link drive solleva una serie di problematiche tipiche della modellazione multibody. Infatti, l’utente deve scegliere con cura numero e tipologia di vincoli se non vuole pervenire a risultati incompleti o addirittura errati. L’utilizzo di strumenti come “ANSYS Transient Structural MBD” presuppone che l’utente possieda adeguate nozioni di meccanica applicata e calcolo numerico che gli consentano di tradurre correttamente un sistema fisico in un modello virtuale. La schematizzazione può avvenire in modo più o meno raffinato, con conseguenze dirette sull’efficacia della simulazione. È compito del modellista scegliere dimensione, grado di complessità e dettagli del modello che vuole creare, considerando simultaneamente obiettivi da raggiungere, onere computazionale e tempo a disposizione. Il miglior modello non è quello più dettagliato, ma quello che risponde in modo più veloce ed esauriente alle esigenze. Questa regola, che vale in generale per tutte le dimensioni del CAE, assume un ruolo decisivo per la simulazione multibody. EnginSoft propone un corso di modellistica multibody della durata di 2 giorni a tutti i progettisti che affrontano quotidianamente problemi di cinematica e dinamica. Il corso è pensato e strutturato in modo da trasferire in breve tempo le conoscenze che servono a formulare consapevolmente le principali scelte di modellazione multibody. Il corso verrà tenuto dal prof. Roberto Lot dell’Università di Padova in collaborazione con l’ing. Fabiano Maggio di EnginSoft. Per informazioni sui contenuti consultare il sito del consorzio TCN: www.consorziotcn.it Per iscrizioni e informazioni generali consultare la sig.ra Mirella Prestini della segreteria del consorzio. E-mail: [email protected] Tel: 035 368711 22 - Newsletter EnginSoft Year 8 n°2 Ottimizzazione di ponti in curva in struttura composta acciaiocalcestruzzo • Possibilità di effettuare questo procedimento più volte per un singolo progetto, in un’ottica di ottimizzazione della struttura secondo determinati obiettivi fissati dal progettista. Tesi di laurea di Corrado Chisari Università degli Studi di Trieste Relatore: Chiar.mo prof. Claudio Amadio Correlatori: Chiar.mo prof. Salvatore Noè, Dott. Ing. Roberto Zamparo L'impiego di travi appoggiate o continue a sezione composta acciaio-calcestruzzo, con soletta gettata in opera o prefabbricata, è sempre più frequente nella realizzazione di impalcati da ponte sulle luci medie (40 80 m). Tale soluzione consente anche la realizzazione d'impalcati ad asse curvo e può essere utilizzata per risolvere situazioni progettuali caratterizzate da complesse geometrie di tracciato stradale, come nel caso dei viadotti inseriti nei tracciati articolati delle sopraelevate urbane ed extraurbane e dei cavalcavia di svincolo o d'attraversamento. La particolarità più importante di questa tipologia di ponte è rappresentata dalle sollecitazioni torsionali che nascono anche per effetto di carichi simmetrici rispetto all'asse del ponte, al contrario di quanto succede per i ponti rettilinei. Tali sollecitazioni di torsione provocano diversi effetti di cui tenere conto: • Sollecitazioni normali aggiuntive sulle flange per effetto della torsione secondaria o alla Vlasov; • Deformazione del pannello d'anima nel piano della sezione retta, con conseguente perdita di forma della sezione nel suo complesso. Si può quindi passare da una progettazione tradizionale (in cui ad un predimensionamento iniziale segue il processo di calcolo delle azioni agenti sulla struttura, l’analisi strutturale, e la verifica delle sezioni proposte con conseguente eventuale taratura) ad una progettazione ottimizzata in cui il momento decisionale risulta collocato in un diverso istante. Il primo passo consiste nella parametrizzazione della struttura. In questa fase viene analizzato il problema e vengono definite le variabili che lo descrivono completamente. Il cromosoma dell’individuo che rappresenterà una particolare soluzione del problema sarà costituito da questi parametri. Successivamente alla parametrizzazione si procede con il processo di ottimizzazione utilizzando opportuni algoritmi genetici (GA). L’implementazione di quest’approccio è stato possibile grazie ad un codice scritto in C# in grado di: • creare in ambiente Straus7, grazie alle sue API (Advanced Programming Interface), il modello ad elementi finiti della struttura leggendo un file di input redatto dall'ottimizzatore in cui vengono fissati i parametri di tentativo; • lanciare il solutore, ricavare i risultati ed eseguire le verifiche, trascrivendo su un apposito file di output i dati che servono per la valutazione della struttura. Per tali motivi, i consueti metodi approssimati (schematizzazione a graticcio di travi o a piastra ortotropa) non sono applicabili nel caso di ponti in curva ed è necessaria un'analisi agli elementi finiti in grado di cogliere gli effetti aggiuntivi dovuti alla curvatura del tracciato. La progettazione usuale presenta aspetti ripetitivi, quali l’applicazione dei carichi e la verifica degli elementi strutturali, che molto proficuamente possono essere affidati a una procedura automatizzata gestita da un eleboratore elettronico. Questo permette di conseguire due scopi principali: • Assenza di errore umano; Fig. 1 - Schema di progettazione ottimizzata Newsletter EnginSoft Year 8 n°2 - Sarà compito dell'ottimizzatore leggere tali dati e modificare i parametri di input per il successivo passo della procedura. L’ottimizzazione Il software utilizzato nel processo di ottimizzazione è modeFRONTIER. Tale programma non si interfaccia direttamente con il software ad elementi finiti Straus7; il collegamento fra i due programmi è affidato ad uno script di DOS, il quale ha il compito di lanciare il codice in C#, che a sua volta legge il file Parametri_ponte.txt redatto da modeFRONTIER e scrive il file Output.txt. La lettura di Output.txt da parte di modeFRONTIER permette di valutare l'individuo testato e proseguire il processo di ottimizzazione variando in maniera opportuna i parametri di ingresso che verranno scritti nel nuovo file Parametri_ponte.txt. Le analisi effettuate Le variabili di input sono tutte le caratteristiche che descrivono completamente la struttura, in numero minimo, per ridurre al massimo i tempi di computazione. Per fare alcuni esempi, ricordiamo tra queste: numero travi, dimensioni e spessori di piattabande ed anime dei vari conci e degli elementi di diaframmatura, etc. Le variabili di output sono invece i risultati dell’applicazione delle verifiche eseguite dal codice da noi Fig.2 - History chart dell’analisi 1 preliminare 23 redatto: verifica a taglio, a trazione-compressione, etc. Le analisi eseguite sono state diverse, e hanno messo in luce significative differenze nei risultati finali: 1. Analisi di ottimizzazione con giunti fra le travi in posizione fissa, pari a quella assunta nel progetto originale; 2. Analisi di ottimizzazione con giunti fra le travi in posizione variabile, ma senza vincoli sulla lunghezza di ogni singolo concio; 3. Analisi di ottimizzazione con giunti fra le travi in posizione variabile e lunghezza massima dei conci pari a 12,0 m (lunghezza massima di trasportabilità); 4. Analisi di ottimizzazione con giunti fra le travi in posizione variabile, con lunghezza massima dei conci pari a 12,0 m e obiettivo unico del costo totale dell'opera. Le prime tre analisi presentano invece due obiettivi che sono la minimizzazione del peso del calcestruzzo e del peso dell'acciaio. Per le quattro ottimizzazioni il procedimento seguito è stato identico: • un'analisi preliminare con DOE di 150 individui; • un'analisi definitiva con DOE di 25 elementi scelti selezionando tra i risultati dell’analisi preliminare quelli appartenenti al fronte di Pareto ed altri tra quelli più prossimi a tale fronte e 50 generazioni per ogni elemento. L'algoritmo di analisi utilizzato è il MOGA-II (Multiobjective Genetic Algorithm), adatto a ricerche multiobiettivo come quella in oggetto. La sua particolarità è quella di utilizzare lo “Smart Multiserch elitism” che evita il problema di individuare ottimi locali, ricercando invece l’ottimo assoluto. Risultati La prima analisi di ottimizzazione eseguita prevede come costanti la posizione dei giunti fra le travi, pari a quella assunta nel progetto originale. 24 - Newsletter EnginSoft Year 8 n°2 Fig. 3 - History chart dell’analisi 1 definitiva Dall’analisi dei risultati si nota come la presenza di diversi obiettivi non consenta la convergenza verso una soluzione ottima, ma la si ottenga in maniera quasi occasionale. Per tentare di capire il perché di questa mancata convergenza, è stata lanciata una terza analisi con lo stesso DOE di partenza di quella definitiva ora descritta, ma con numero di generazioni pari a 150. Fig. 6 - Screenshot dell'individuo ottimo dell'analisi 1 stata lanciata una seconda analisi, in cui essa varia liberamente. Anche in questo caso sia l'analisi preliminare (con 150 individui scelti con metodologia RANDOM e 30 generazioni per individuo) che l'analisi definitiva non mostrano convergenza per la presenza dei diversi obiettivi. Fig. 4 - Analisi 1 con 150 generazioni Fig. 7 - History chart dell’analisi 2 definitiva È evidente che l'ottimizzatore trova due strade di possibile convergenza, indicate con le lettere A e B. Trattandosi di un'analisi multiobiettivo non c'è parametro che faccia scegliere una al posto dell'altra, per cui si spiega la mancanza di convergenza. A riprova di quanto detto, analizzando il diagramma scatter che riporta rispettivamente in ascissa il peso dell'acciaio e in ordinata quello del calcestruzzo, notiamo che i due gruppi di soluzioni appartengono entrambi al fronte di Pareto, ossia rappresentano entrambi individui caratterizzati dal raggiungimento di un minimo obiettivo che non possono essere migliorati se non peggiorando l'altro obiettivo. Fig. 8 - Individuo ottimo dell'analisi 2 Nell’analisi 3, come già detto, viene imposto un vincolo ulteriore all’ottimizzatore: la lunghezza massima dei conci, pari a 12 m. Fig. 5 - Diagramma scatter peso acciao-peso cls Poiché la posizione dei giunti in realtà non è fissata a priori ma è uno dei parametri variabili del progetto, è Confrontando tale analisi con quelle precedenti è possibile notare che la convergenza viene qui raggiunta in maniera decisamente più rapida; tuttavia l'introduzione di un ulteriore vincolo comporta un minore risparmio di materiale. Per la prima volta compare un individuo caratterizzato da tre travi in acciaio, anziché due (Fig. 10). Newsletter EnginSoft Year 8 n°2 - 25 e della verifica della struttura permette di cercare la soluzione ottima al problema sotto determinati obiettivi decisi dal progettista. Tale automatizzazione è stata resa possibile dalla creazione di un codice che utilizza le API del programma commerciale Straus7 per creare il modello ad elementi finiti di un ponte in curva, e dall’inserimento di tale codice nel processo di ottimizzazione gestito dal software modeFRONTIER. Fig. 9 - History chart dell’analisi 3 definitiva Fig. 10 - Individuo ottimo dell'analisi 2 Nell’ultima analisi effettuata, sono state considerate costanti le dimensioni dei traversi, ed è stato introdotto un nuovo, unico obiettivo, che è il costo totale dell'opera. Tale costo è stato computato considerando un prezzo del calcestruzzo pari a 140 €/mc per il calcestruzzo e 2,30 €/kg per l'acciaio. Fig. 11 - History chart dell'analisi 4 preliminare Fig. 12 - Individuo ottimo dell'analisi 4 Dalla risposta riportata in fig. 11 si nota che la diminuzione di parametri variabili e degli obiettivi causi una convergenza molto più veloce già nell'analisi preliminare. Anche questo modello risulta caratterizzato dalla presenza di tre travi (Fig. 12). Conclusioni In questo lavoro è stato affrontato il problema di un tipo di progettazione di ponti in curva diversa da quella tradizionale, in cui l’automatizzazione della modellazione Dalle analisi effettuate si è osservato che: • la configurazione con giunti nelle posizioni del progetto realizzato presenta già una buona soluzione in termini di peso; • un ulteriore risparmio si otterrebbe se fosse possibile non avere giunti, ma utilizzare un'unica tipologia di trave per tutta la campata. Questa, infatti, è la tipologia cui tende l'ottimizzatore nella seconda analisi; • la definizione del costo del materiale e il calcolo del costo totale dell’opera permettono di avere una soluzione più indicativa, riducendo il problema ad una ottimizzazione mono-obiettivo e tenendo conto della minore importanza del calcestruzzo rispetto all’acciaio. Bibliografia 1. Wai-Fah Chen – Lian Duan, Bridge Engineering Handbook, CRC Press 2. Ching-Jen Chang – Donald W. White, An assessment of modeling strategies for composite curved steel I-girder bridges 3. Ann L. Fiechtl - Gregory L. Fenves – Karl H. Frank, Approximate analysis of horizontally curved girder bridges 4. P. Clemente – L. Dezi – G. Leoni, Modellazione di impalcati bitrave curvi a sezione composta 5. Vasilii Zakharovich Vlasov, Thin-Walled Elastic Beams 6. James S. Davidson – Scott R. Ballance – Chai H. Yoo, Analytical Model of Curved I-girder Web Panels Subjected to Bending 7. Roberto Zamparo, Ottimizzazione di un impalcato da ponte in struttura mista acciaio-calcestruzzo mediante i codici Straus7 e modeFRONTIER, Tesi di Laurea in Teoria e Progetto delle Costruzioni in Acciaio, A. A. 2004-2005 8. Straus7, API Manual. Documentation for the Straus7 Application Programming Interface 9. Pasquale Lucia, Progettazione ottimale di ponti in struttura mista acciaio-calcestruzzo ad asse rettilineo mediante algoritmi evolutivi, Tesi di dottorato di ricerca in Ingegneria delle infrastrutture, delle strutture e dei trasporti 10.Raniero Bolognani, Ottimizzazione con algoritmi genetici di un impalcato da ponte: studio della soletta in c.a., Tesi di Laurea in teoria e Progetto di Ponti, A.A. 2006-2007 26 - Newsletter EnginSoft Year 8 n°2 Higher Energy Recovery and Longer Life for Heat Exchangers UNICONFORT srl is an Italian company which operates very successfully in the field of thermal technology and providing solutions for the energy conversion of pellets and biomasses coming from agriculture, wood working and the forestry industry. The company provides turnkey installations from storage to chimney. Their main activities range from project to production of biomass-fired boilers to produce hot water, superheated water, hot air, steam and thermal oil. Boilers can treat various types of biomasses, from pellets to fuel with high humidity content. The power range is from 24 KW to 5.800 KW. UNICONFORT relies on Computer Aided Engineering and has selected EnginSoft as a key partner to develop and optimize its products. The research activity is aimed at improving the thermal efficiency and the management of the plants. The heat exchanger that is placed downstream of the combustion chamber is a key component of the plant. That is the element where energy is recovered, and it has to deal with high temperatures, hence it is service life affects the maintenance of the entire system. Increasing the energy recovery and extending the heat exchanger life are the aims of the CFD and FEM study carried out by UNICONFORT and EnginSoft. The objective The study presented here considers a heat exchanger used for heat recovery from biomass combustion. The first step is the evaluation of the flow conditions inside the system by means of a 3D thermo-fluid dynamic simulation, which will give an insight into the flow and temperature distributions in the system. The second step is a Finite Element Analysis of the heat exchanger using as inputs thermal loads which are derived from the CFD analysis. The purpose is to verify Fig. 1 - CFD and FE model the stress levels in the structure, Energia dalle biomasse: Impianti ad alta efficienza e minore manutenzione grazie alla simulazione “Efficienza energetica” ed utilizzo di “fonti rinnovabili” sono due temi di grande attualità e che interessano diversi aspetti della nostra vita quotidiana, da quella domestica a quella lavorativa, perché la bolletta energetica è una voce pesante sul bilancio familiare ed aziendale. Uniconfort basa il proprio successo sulle tecnologie per l’utilizzo di fonti rinnovabili e investe, con ritorno, nella ricerca dell’efficienza energetica. EnginSoft ha affiancato Uniconfort nello sviluppo di un nuovo scambiatore di calore che recupera energia da biomassa. Da questa collaborazione è nata la scelta di verificare l’efficacia di alcune decisioni progettuali tramite la simulazione, riducendo notevolmente i tempi per l’immissione sul mercato di questo prodotto ed incrementandone la qualità e la durata. Uniconfort produce impianti per la conversione energetica delle biomasse provenienti dall’industria agro-forestale, alimentare, dalla lavorazione del legno e dall’industria del pellet. Propone impianti “chiavi in mano” di piccola e grande taglia (da 24 a 5800kW) e vanta un centro ricerche interno specializzato, che studia ed esegue prove di combustione di biomasse solide di tipo convenzionale e non convenzionale. Di fronte alla necessità di sviluppare un impianto con componenti di nuova concezione, Uniconfort ha deciso di verificare la validità del proprio progetto e di ottimizzare un componente particolare, lo scambiatore che recupera energia dalla biomassa, tramite la simulazione fluidodinamica e meccanica. Lo scambiatore in questione si trova all’uscita della camera di combustione e trasferisce l’energia dai fumi a un secondo fluido, che permette poi la generazione di energia elettrica tramite una turbina. L’investimento in ricerca e sviluppo ha come obiettivo quello di proporre al mercato un prodotto che dia garanzie di efficienza in termini di scambio energetico e che sia a bassa manutenzione. Lo scambiatore infatti è soggetto ad elevate temperature che mettono alla prova la resistenza e la durata del compo- Newsletter EnginSoft Year 8 n°2 - the maximum displacements and the creep behavior. Both the CFD and the FE analyses showed that the general behavior of the system is in line with UNICONFORT expectations and that some modifications could further improve the heat exchanger. Fig. 2 - Velocity field (left) and The improvements have the temperature field (right) from CFD following objectives: increase simulation the heat exchange, possibly reduce the temperature peaks and increase the structure’s resistance in order to assure a longer life of the system. An important constraint is that the modifications may not increase the cost of the heat exchanger. CFD Analysis The model involves two fluid domains: the combustion products and the cold air circuits. Conjugate heat transfer is included which also considers the conductive solid material of the pipes. The combustion products, which derive from biomass combustion, flow from the main entrance into a series of passages through four chambers, transferring energy to the cold air which enters the domain from the opposite side. The energy transfer is enhanced by the cross-flow pattern of combustion products and cold air. A series of external collectors and pipes connect each pipe rack in one chamber to one in the next. Thermal insulation is assured by means of an external structure made of refractory bricks. Taking advantage of the regular geometry of the chambers, the computational mesh is obtained from extrusion of a 2D mesh pattern, thus limiting the number of elements and the computational time. This is essential when using simulation as a design tool used to compare different solutions and to select the best one. The simulation is carried out with ANSYS CFX. Turbulence is solved using the Shear Stress Transport model. In addition, due to the high temperatures inside the domain, thermal radiation effects are considered. This is crucial to accurately resolve the temperature peaks on the structure. The combustion products are characterized with specific properties provided by UNICONFORT. Particular care is reserved for the definition of suitable values of heat transfer coefficients to model the heat dispersed through the layers of refractory bricks. The analysis of velocity and pressure distributions shows that there is an interaction between the cold flow and the structural reinforcements inside the collectors. Pipes shaded by the structural supports are characterized by lower flow rates and by a slightly lower heat exchange. Aiming at increasing the uniformity of the velocity distribution inside the pipes, a second CFD simulation is performed considering a series of modifications to the initial geometry. 27 nente, il quale, in caso di rottura, deve essere sostituito con costi legati anche all’arresto dell’impianto. In questo contesto la simulazione permette di eseguire una sorta di “radiografia” del sistema e di individuare le cause di eventuali inefficienze, dovute per esempio a zone di ristagno o maldistribuzione dei flussi, oppure a regioni con temperature troppo elevate, che possono pregiudicare la vita della struttura. Prevenire questi problemi, lavorando sul prodotto in maniera virtuale tramite la simulazione, significa costruire un prototipo e andare in camera di prova con maggiore confidenza sul suo buon funzionamento. Di conseguenza, il numero di correzioni da apportare al prototipo e il tempo necessario per arrivare al prodotto finale si riducono. La simulazione quindi supporta la sperimentazione e aiuta ad ottimizzare il progetto, con un impatto notevole sulla qualità del prodotto e sul processo di progettazione. Partiamo dal secondo punto, il processo di progettazione. Di fronte ad un componente nuovo per concezione, dimensioni e condizioni di lavoro, gli ingegneri di Uniconfort hanno deciso che prevedere il comportamento dello scambiatore, prima ancora di costruire un prototipo, avrebbe potuto accorciare i tempi di sviluppo e ridurne i costi. Il normale processo progettuale prevede infatti la costruzione di un prototipo dello scambiatore, la sua installazione in un impianto pilota e il test, volto a determinare lo scambio di energia, oltre che la resistenza e la vita del componente. Quest’ultimo aspetto richiede tempi di prova particolarmente lunghi e di conseguenza costi elevati. Come detto la simulazione consente di eseguire in maniera virtuale le prove sullo scambiatore di calore. Il beneficio, oltre ai costi ridotti, è una maggiore conoscenza dei fenomeni che avvengono all’interno dello scambiatore. Dal punto di vista pratico “vedere quello che avviene nello scambiatore” significa capire come intervenire per migliorarlo, perché le decisioni progettuali vengono prese sulla base di un’analisi dettagliata del sistema. Nel caso specifico, lo studio dello scambiatore di Uniconfort è iniziato con l’analisi termo-fluidodinamica mediante ANSYSCFX. Il software permette di visualizzare l’andamento dei flussi nel componente e di calcolare la distribuzione di temperatura sulle pareti dei fasci tubieri interni e sulla struttura esterna. Da queste informazioni sono state ricavate le prestazioni del sistema in termini di uniformità dei flussi nei condotti e di calore scambiato tra i due fluidi, cioè la potenza recuperata dalla combustione della biomassa. Come detto, l’obiettivo e il grande vantaggio della simulazione non è la generazione di numeri, ma di conoscenza, la quale si traduce in un intervento migliorativo sul prodotto. In questo caso la visualizzazione dei flussi ha permesso di capire che una leggera modifica ai collettori dell’aria permette una migliore distribuzione dei flussi stessi, con conseguente beneficio sulla potenza recuperata. 28 - Newsletter EnginSoft Year 8 n°2 These modifications involve only the internal structural supports inside the collectors, thus they do not have a relevant impact on the manufacturing costs of the heat exchanger. The modified geometry succeeds in enhancing the distribution of the cold air inside the pipes, increasing the uniformity of the flow by 30%. As a consequence, the overall power exchanged in the system increases. FE Analysis FE analysis calculates the thermo-structural behavior of the heat exchanger taking into consideration the pipes rack which experiences the highest temperatures, that is the first one near the combustion products inlet. The model includes the pipes rack and the upper and lower collectors attached to it. The calculation is performed with ANSYS MECHANICAL. The analysis is multi-step with both material and geometric nonlinearity, large deflections and contacts. The material is steel, considered as isotropic and elastic-perfectly plastic. Young’s modulus and yield stress are functions of the material temperature. The objective here is to verify that maximum stress levels and displacements are limited under a certain threshold and to evaluate the creep behavior of the structure. The structure stands on the refractory bricks, while applied loads are the structure weight, an internal pressure and the temperature distribution determined with the CFD simulation. Hence a 1-way Fluid-Structure-Interaction is carried out interpolating the CFD results onto the FE mesh. Early post-processing underlines that stress is concentrated in the upper and lower collectors. Due to this, a modified geometry is proposed for these parts, with an increased thickness for the collectors’ walls and additional reinforcements above the upper collector. Further simulations on the second geometry verify the effectiveness of the proposed modifications in reducing extension and magnitude of stress. Displacements are also reduced and the creep behavior is improved. Di comune accordo EnginSoft ed Uniconfort hanno deciso di modificare i collettori e di ripetere la simulazione termo-fluidodinamica. L’analisi ha confermato una maggiore uniformità dei flussi nel fascio tubiero del 30%. Il passo successivo consiste nel trasferire le informazioni di temperatura e pressione calcolate dall’analisi termo-fluidodinamica al modello strutturale. In questo modo il modello strutturale utilizza le reali distribuzioni di pressione e temperatura come condizione di carico per il fascio tubiero. Un processo di analisi che coinvolge sia la parte fluidodinamica che quella strutturale riduce le semplificazioni e le assunzioni riguardo ai carichi agenti sulla struttura e avvicina i modelli virtuali alla realtà. Il modello meccanico dello scambiatore ha consentito il calcolo delle deformazioni dei fasci tubieri, della resistenza della struttura e ha fornito una stima della sua vita. Come nel caso della fluidodinamica, di fronte alla visualizzazione dello stato di sollecitazione gli ingegneri di Uniconfort hanno deciso di inserire alcuni rinforzi che hanno aumentato la resistenza ed hanno allungato la vita dello scambiatore. Le modifiche proposte tramite la simulazione hanno avuto un impatto molto ridotto in Fig. 3 - Temperature field from CFD (left), termini di costo, per- stresses and displacements results (right) ché di lieve entità rispetto alla struttura complessiva, e sono state particolarmente efficienti, perché introdotte nella fase iniziale del progetto, quando si ha ancora facilità di intervento. Conclusions A 1-way fluid-structure interaction study is carried out on a heat exchanger used for heat recovery from biomass combustion. The temperature distribution on the structure is calculated using a CFD model and is then transferred to a FE model for stress and creep analyses. Both the CFD and the FE simulations show that minor and lowcost modifications to the structure can improve both the heat exchange efficiency and assure a longer life to the system. The impact of simulation has been relevant not only for the improvements achieved, but above all because of the knowledge acquired by UNICONFORT about the phenomena that determine the performance of their products. L’investimento di Uniconfort è stato ripagato in termini di qualità dello scambiatore, che significa prestazioni elevate e garanzie di resistenza. Conoscere il proprio prodotto e sapere come migliorarlo fornisce un ritorno economico e in termini di sicurezza e confidenza su ciò che Uniconfort propone ai propri clienti. La capacità di “entrare dentro lo scambiatore” per vedere quello avviene ai flussi e alla struttura si è tradotto nella capacità di intervenire per migliorare il progetto. Non solo, la conoscenza acquisita diventa un patrimonio aziendale che permette di affrontare i progetti futuri da un gradino superiore e diventa la base per continuare ad innovare e mantenere la propria posizione di mercato nel lungo termine. Silvio Geremia - UNICONFORT Davide Cerizza - EnginSoft Massimo Galbiati - EnginSoft Silvio Geremia - UNICONFORT Davide Cerizza - EnginSoft Massimo Galbiati - EnginSoft Newsletter EnginSoft Year 8 n°2 - 29 ANSYS Composite Pre-Post v.13.0: lo stato dell’arte nella progettazione e nell’analisi delle strutture in materiale composito La struttura alla base di ACP permette infatti all’utente di gestire in modo organico tutte le fasi dell’analisi numerica di un componente in materiale composito. Nella definizione dei materiali, è adesso possibile verificare le proprietà del laminato risultante sulla base della teoria classica della laminazione (fig. 2, diagramma polare, matrici di rigidezza e deformabilità, …). Fig. 1 – L’approccio Simulation–Driven Fig. 2 – Proprietà materiali e laminati Sin dalla sua prima introduzione, ANSYS Composite Prep-Post (ACP) ha rivoluzionato definitivamente il processo di progettazione avanzata ed analisi agli elementi finiti delle strutture in materiale composito, integrando coerentemente all’interno del progetto WB un’interfaccia intuitiva e funzionale con tutti gli strumenti necessari alla previsione accurata delle prestazioni in esercizio, tenendo conto degli effetti del processo produttivo e mettendo a disposizione modelli di analisi di ultima generazione (per es. thick-walled curved laminates shell 3D stresses) con l’accuratezza numerica garantita dai solutori ANSYS. Nella nuova versione 13.0 di ACP, ANSYS potenzia ulteriormente le capacità di analisi e la semplicità d’uso permettendo di implementare ancora più facilmente una procedura “simulation–driven” (Fig. 1) nello sviluppo di nuovi prodotti realizzati in materiale composito o nell’incremento delle prestazioni di quelli esistenti. Fig. 3 – Definizione di un laminato asimmetrico Fig. 4 – Analisi di drappabilità e calcolo dello sviluppo (flat wrap) 30 - Newsletter EnginSoft Year 8 n°2 La tecnologia “Oriented Element Set” permette di assegnare correttamente il lay-up, a prescindere del sistema di riferimento elementare, anche in presenza di laminati asimmetrici (figura 3). L’analisi di drappabilità (con la previsione del flat wrap ed il calcolo puntuale dell’angolo corretto di stesura delle fibre rispetto al valore teorico, figura 4) permette di tenere conto degli effetti produttivi. L’estrusione di modelli solidi è adesso ottenibile anche per superfici complesse (cambi di curvatura) includendo le zone di drop-off; inoltre nei laminati sandwich sono automaticamente introducibili nel modello numerico (via importazione diretta del cad) “core” realizzabili tramite macchine a controllo numerico (figura 5). Per quanto concerne la fase di post-processing, i risultati sono accessibili in modo efficace (possibilità di comparare più soluzioni e/o casi di carico), efficiente (“multi-scene”) e completo (possibilità di individuare immediatamente la regione critica sul modello 3D, figura 6) e, dalla versione 13.0, è possibile plottare, elemento per elemento (“Sampling Elements”), lo stato tenso-deformativo e l’IRF (Inverse Reserve Factor) nello spessore del laminato (Figura 1). Fig. 5 – Estrusione del modello solido (in alto), definizione di un core a spessore variabile (in basso) In definitiva, ANSYS Composite Pre-Post definisce nuovi standard di riferimento per quanto riguarda le analisi numeriche di strutture in materiale composito, riducendo l’incertezza in termini di prestazioni tra modello numerico e prototipo sperimentale, aiutando l’utente a comprendere al meglio l’intero processo progettuale (Figura 8). Per maggiori informazioni: Marco Spagnolo - EnginSoft [email protected] Fig. 7 – Esempio di post-processing tramite “Sampling Elements” Fig. 6 – Individuazione della regione critica sul modello 3D (modalità di failure) Fig. 8 – Riscontro positivo nell’utilizzo di ACP Newsletter EnginSoft Year 8 n°2 - 31 Tecniche di modellazione in Maxwell 14 1. Introduzione Maxwell è il principale strumento del pacchetto software ASYS per le analisi elettromagnetiche in bassa frequenza. Abbiamo già avuto modo di sottolineare, nelle precedenti newsletter, come l’integrazione di Maxwell all’interno della piattaforma ANSYS Workbench consenta di poter facilmente integrare all’ambiente di simulazione di Maxwell i moduli termici e strutturali di ANSYS. Nel presente testo vogliamo approfondire alcune tecniche di modellazione a disposizione degli utenti di Maxwell. In Maxwell si possono specificare gradi di libertà relativi a moti rotatori o traslatori, ed è possibile all’interno della stessa simulazione definire 2 diversi oggetti mobili. In Figura 1 questo concetto è applicato a due magneti permanenti. Al magnete 1 si assegna una legge di moto sinusoidale rispetto al grado di libertà angolare. Al magnete 2 si assegna lo stesso grado di libertà, sebbene riferito ad un sistema di riferimento cartesiano centrato sullo stesso magnete 2, ma invece che una legge di moto vi si attribuiscano delle proprietà di inerzia. Il risultato è la Fig. 1 - Esempio di accoppiamento in transitorio temporale ai moti di corpo rigido, definizione di 2 magneti permanenti mobili. 2. Tecniche avanzate di modellazione: Maxwell si presenta come una piattaforma semplice da utilizzare ma completa per quanto riguarda le tecniche di modellazione implementabili. legge di moto con cui il magnete 2 si allinea al movimento del magnete 1. 2.2 Definizione di segnali di alimentazione nel dominio del tempo. In Maxwell è possibile definire il segnale di alimentazione attraverso due metodologie differenti: A. Con accoppiamento ad un modello circuitale esterno definito nel Circuit Editor di Maxwell; B. Mediante la definizione della forma d’onda del segnale di alimentazione, sia attraverso una funzione definita nel dominio del tempo che utilizzando una look-up table in cui si indicano i valori assunti dal segnale in 2.1 Accoppiamento in transitorio temporale ai moti di corpo rigido. Il solutore transient di Maxwell consente di effettuare analisi elettromagnetiche in accoppiamento temporale ai moti di corpo rigido. Da un punto di vista strutturale l'accoppiamento avviene in Maxwell sul grado di libertà corrispondente al moto rigido e rappresenta una vera e propria integrazione 2way. Tra l'altro, il fatto che questa integrazione avvenga su di un solo grado di libertà strutturale, permette di fatto questa integrazione. In tecnologie in cui questo tipo di integrazione non avviene con i moti di corpo rigido, ma con tutti i gradi di libertà strutturali, si ha un difficile accoppiamento magneto-strutturale, dovuto all'inevitabile eccitazione dei modi propri Fig. 2 - Esempio di forma d’onda in Maxwell esprimibile come combinazione di una funzione sinusoidale e di della struttura. un’eccitazione triangolare. 32 - Newsletter EnginSoft Year 8 n°2 In tali applicazioni una specifica attenzione è dedicata ad una particolare classe di materiali, quella dei ferromagnetici affetti dal ben noto fenomeno dell’isteresi magnetica da cui dipendono direttamente le perdite per isteresi magnetica. Fig. 3 - Esempio di forma d’onda esprimibile in Maxwell caratterizzata da una frequenza crescente linearmente col tempo. corrispondenza di diversi istanti temporali. In particolare, per quanto riguarda il punto B, la definizione di una funzione nel tempo e di una table possono coesistere all’interno della definizione dello stesso segnale. Una funzione sinusoidale ed un’eccitazione triangolare sono combinate insieme per dare il segnale di eccitazione di Figura 2. Gli effetti della magnetizzazione di un materiale dipendono dal tipo di materiale stesso; l’intensità di tale fenomeno viene quantificata tramite il campo di induzione magnetica B. L’espressione del campo magnetico B è data da: dove con µ si indica la permeabilità magnetica del materiale mentre il campo H rappresenta il campo magnetico applicato. È possibile classificare diversi materiali in funzione delle proprietà magnetiche che essi presentano e che sono legate ai valori assunti dalla permeabilità magnetica µ. L’applicazione di un campo H ad un materiale Fig. 4 - Ciclo di isteresi magnetica. di questo tipo produce una sorta di memorizzazione fino ad un valore di saturazione di B, quando poi L’espressione matematica che esprime la forma d’onda di si riporta H verso lo zero o valori negativi, il materiale riFigura 2 è la seguente: mane magnetizzato (Figura 4). Imax*sin(2*pi*50*time)+pwl_periodic(ds1,time) Nella Figura 4, oltre alla curva B-H, si osserva un’ulteriore L’editing in interfaccia dell’espressione: curva indicata con J=f(H), tale curva è detta curva di mapwl_periodic(ds1,time), consente all’utente di accedere gnetizzazione intrinseca e si ottiene sottraendo punto per direttamente al menù di definizione dei dataset per impunto ad ogni valore di B il valore µ0H; J è legato ad M mettere i punti relativi al periodo dell’eccitazione triangosecondo la relazione J=4πM. lare considerata. Il campo di induzione magnetica B può essere scritto coUn altro esempio è la forma d’onda di Figura 3. me la somma del campo che si otterrebbe in ogni punto In questo caso la funzione editata è la seguente: dello spazio occupato dal materiale se si togliesse il maImax*sin(2*pi*(1250*time+50)*time teriale stesso, più un campo di magnetizzazione propria: che esprime una frequenza crescente linearmente col tempo. ove con M si intende l’intensità di magnetizzazione, pro2.3 Curva BH normale ed intrinseca. porzionale ad H e pari a: In un vasto range di applicazioni ingegneristiche che vanno dall’analisi e progettazione di motori elettrici sempre più efficienti, allo studio e ottimizzazione dei trasformatori, o più in generale di macchine che sfruttano i principi dell'elettromagnetismo legati ai flussi variabili, particolare interesse è rivolto alla scelta dei materiali. Fig. 5 - Definizione della curva B-H normale (sinistra) e intrinseca (destra) Newsletter EnginSoft Year 8 n°2 - 33 2.4 Calcolo dell’induttanza nelle analisi transient e magnetostatiche. Nel caso di analisi di tipo transient e di tipo magnetostatiche, il calcolo della matrice delle induttanze non può prescindere dalla linearità o dalla non linearità dei materiali definiti nel modello, Come mostrato in Figura 6, Maxwell consente di calcolare la matrice delle induttanze per ciascun time-step definito nel setup della simulazione. Le dimensioni della matrice delle induttanze dipendono dal numero di avvolgimenti considerati, se N è il numero di windings allora la matrice ha dimensioni NxN e gli elementi saranno disponibili per successive elaborazioni in postprocessing o tramite il tool di ottimizzazione embedded: Optimetrics. Fig. 6 - Interfaccia di Maxwell14: calcolo della matrice delle induttanze nelle analisi transient. χm rappresenta la suscettività magnetica e misura l'intensità di magnetizzazione di un corpo indotta dalla presenza di un campo magnetico esterno H. Dal punto di vista della simulazione numerica, al fine di tener conto della dipendenza della magnetizzazione di un materiale dalla temperatura e di calcolare le perdite è di fondamentale importanza la corretta modellazione delle proprietà magnetiche del materiale. Come mostrato in Figura 7, Maxwell consente di calcolare l’induttanza apparente e l’induttanza incrementale o differenziale; la prima fornisce il flusso totale come funzione di tutte le sorgenti definite nel modello (corrente nei coil e magneti permanenti), mentre la differenziale fornisce la relazione tra la variazione del flusso a fronte della variazione di corrente ed è legata al rapporto dB/dH che definisce la permeabilità magnetica. Nel caso di materiali lineari i valori delle due quantità coincidono. A tal fine, dalla versione 14 di Maxwell è possibile definire sia la curva B-H normale che quella intrinseca del materiale, come mostrato in Figura 5. Per maggiori informazioni Emiliano D’Alessandro - EnginSoft [email protected] Maxwell consente pertanto di: • Modellare magneti non permanenti non lineari partendo da valori di H pari a zero; • Modellare magneti permanenti non lineari partendo da valori di H negativi definito nelle tre componenti; • Considerare come permanente un magnete la cui curva BH è definita nel terzo quadrante. Alice Pellegrini - EnginSoft [email protected] Al fine di tener conto dell’effetto della temperatura sulla magnetizzazione del materiale, sarà altresì possibile applicare un modificatore termico sia alla permeabilità relativa che all’intensità della forza coercitiva. Fig. 7 - Interfaccia di Maxwell14: calcolo dell’induttanza apparente e incrementale nelle analisi magnetostatiche. 34 - Newsletter EnginSoft Year 8 n°2 Flowmaster V7.8 Flowmaster system simulation software enables design engineers and analysts to understand the complex internal flow and thermal effects within fluid systems at the concept stage and throughout the development process. Flowmaster provides users with a greater understanding of fluid systems much earlier, increasing quality and performance while shortening the development cycle. In May 2011, the new release V7.8 was launched. The features developed for Flowmaster V7.8 are based on extensive customer feedback and have been designed to provide users with accurate and comprehensive software for simulating complex fluid networks, improving accuracy and reducing costs. AutoPLANT, AVEVA PDMS and Intergraph SmartPlant 3D. This becomes increasingly important as the size and complexity of the system increases. Automating the process in this way saves time and reduces the risk of human error. This helps reduce the risk of error when entering the data and will result in more efficient use of engineers’ time by importing the data and allowing the tool to create the network instead of an engineer manually building the networks. The GIS Import Tool provides users with an easy to use interface enabling Shape Files to be imported directly into Flowmaster without the need for recreation. The interface Dr Alan Moore, Research and Development Director of Flowmaster Ltd. says: “Customer research played a tremendous role in the development of Flowmaster V7.8. We spoke with many of our customers to identify what their needs are, and determine the features and functionalities most important to them. The result is that Flowmaster V7.8 offers some of the most advanced technology ever seen in the system CFD market coupled with intuitive user-friendly features and functionality.” Developed with a particular focus on large plant and piping operations, Flowmaster V7.8 boasts new functionality including data wizards for Pipe Roughness and Pipe Schedules, Additional Heat Transfer Options for Multiple Pipe Layers, Flow Coefficient Curve Creator, new Heat Exchangers and a new Rigorous Energy Balance Solver for compressible problems. In addition, two new Import Tools are available, one for 3D CAD Piping and a second for GIS. The improved functionalities of Flowmaster V7.8 reduce the need to spend time preprocessing data and thus reducing the risk of introducing human error. 3D CAD Piping and GIS Import Tools The 3D CAD Piping Import Tool provides engineers with an easy to use interface which enables 3D CAD piping files to be loaded directly into Flowmaster, utilizing component mapping to reduce data entry time and minimize the risk of error through an automated process. The 3D CAD Piping Import tool automates the process of creating the Flowmaster network based on work already completed in other applications such as Bentley Fig. 1 - Example of CAD piping model and 3D CAD Import Tool (courtesy of Bentley AutoPLANT) Newsletter EnginSoft Year 8 n°2 - provides users with an opportunity to review the imported information before a Flowmaster model is automatically generated. These two tools not only reduce timescales and costs, but offer system analysts the opportunity to spend more time running simulations to hone the optimum solution and less time building the networks. This information can be shared companywide, facilitated by the Flowmaster secure, relational database. Data Wizard for Pipe Roughness A data wizard has been added that provides the user with assistance in selecting an appropriate roughness value for a pipe based on the pipe material and its condition such as deterioration due to deposits, erosion, corrosion, bacterial slimes and growths, and marine and fresh water fouling. Data Wizard for Pipe Schedules A new data wizard has been added that allows users to set pipe schedule specifications to calculate and populate pipe data such as diameter, material type, and wall thickness. This will help reduce the time spent preprocessing the data as well as reduce the risk of introducing human error. The wizard contains default schedules from the US, Europe, and Japan with a user 35 option to add additional schedules via comma separated values (CSV) files. Additional Heat Transfer Options for Pipes Buried and partially buried pipes are fairly common in the oil & gas industries. Flowmaster V7.8 introduces new options for specifying heat transfer information for most fully exposed, buried, and partially buried pipes. These options allow the user to specify the conditions external to the pipe including: burial depth, soil material, external fluid, and external fluid velocity. Moreover, in Flowmaster V7.8 it is now possible to specify up to three layers of insulation at the pipes. Both these options greatly reduce the pre-processing necessary for the user to calculate an external heat transfer coefficient for use in Flowmaster, though this is still an option. Flow Coefficient Curve Creator Within Flowmaster V7.8, all control valves have been enhanced to allow the specification of flow coefficient versus valve opening both in compressible and incompressible analysis. Moreover, a new curve creator tool has been added that allows users to set a single flow coefficient value and valve opening, and select which type of inherent flow characteristic to use, including: linear, hyperbolic, quick opening and equal percentage. This enables users to use a more common form of manufacturers’ data without the need to convert to a loss coefficient. Rigorous Energy Balance Solver Flowmaster V7.8 integrates the new Rigorous Energy Solver for compressible analysis based on the balance of energy in the form of enthalpy. This solver complements the existing temperature based compressible solver and is available to all customers with compressible analysis capabilities as part of the standard compressible license. Enhanced Fluid Properties Flowmaster V7.8 also introduces the larger integration of NIST REFPROP 9.0. This is a fluid database that is maintained by the National Institute of Standards and Technology in the USA and is considered one of the most complete fluid property databases currently available. Heat Exchangers Flowmaster V7.8 delivers 40 new heat exchanger components and each of these utilizes heat transfer correlations from the VDI Heat Atlas, 1994 Edition, VDIGesellschaft Verfahrenstechnik U Chemieingenieurwesen. Fig. 2 - Example of GIS model and GIS Import Tool. For further information: Alberto Deponti - EnginSoft [email protected] 36 - Newsletter EnginSoft Year 8 n°2 MELiSSA PROJECT: Plant Growing Environment Characterization The MELiSSA project is a development program of an artificial ecosystem conceived as a tool to study and advance technology for a future life support system required for long term manned space missions. A critical issue for this kind of mission is the sustenance of life. It requires supply of food, water and O2 and removal of generated wastes. As the duration, distance and crew size increase, so does the shipped mass and volume of food and waste, leading to unaffordable mass transportation requirements. The periodic resupply of basic life support elements from the Earth is not a feasible solution since it’s associated with high economical costs and risks. Hence the need of a self-sustainable system able to treat, recover and recycle edible mass, water and oxygen from human waste and carbon dioxide. Based on the principle of an aquatic ecosystem (see Figure 1), the MELiSSA closed regenerative life support loop consists of five interconnected compartments. In three of them, waste is progressively broken down by fermentation processes. In the fourth compartment, plants are grown to produce food, oxygen and water. The fifth compartment is where the crew lives – rats in the case of this experiment, and on real missions – the astronauts. The schematic representation of five compartments is shown in Figure 2. Food Characterization: framework and objectives Since the project start in 1989, a broad expertise in the various life support areas has been built up among the organizations involved. Still, food system development remains an area where significant advances must yet be achieved. Food characterization is the frame of activities within the Melissa Project aimed at enabling an efficient engineering of food sources. Challenging aspects of food characterization are: • the choice of a cultivar for food production; • the detailed characterization of the produced food; • the characterization of the plant growing environment; • a relevant data acquisition and management strategy. Fig. 1 - MELiSSA Concept Fig. 2 - Melissa closed life support loop Since these aspects are strictly related, it is necessary to conduct a multidisciplinary research. The key benefit of integrating these researches into one framework is that, were these researches to be developed individually or in a separate framework, they would have a very limited benefit at the food system level; however, when focused and combined as in food characterization, together they simplify the design of new regenerative life support systems capable of providing a stable amount of crop-derived food with certified nutritional content. EnginSoft’s task within Food Characterization The main role of EnginSoft in the Food Characterization activities is to bring a contribution to the characterization of the plant growing environment, a key factor in order to guarantee satisfactory conditions for food production. Typically, plant growth chambers used for plant physiology research suffer from a degree of environmental parameter heterogeneity which could affect the yield in quality and quantity. Indeed, depending on light intensity, temperature or air mixing rate, individual crops will display different growth rates and composition at a given sampling time. The modeling of the chamber hardware has Newsletter EnginSoft Year 8 n°2 - 37 prototype hosted in the Chemical Engineering Department of the Escola Tècnica Superior d’Enginyeria (ETSE) of the Universitat Autònoma de Barcelona (UAB). Fig. 3 - MPP HPC general layout The HPC is composed of three main functional areas as illustrated in Figure 3. The Growth Chamber features are displayed in Figure 4. The air flow enters from the inlet placed at the bottom of the chamber (Figure 4D) and is directed by a connection duct (Figure 4C) into the plenum located on one of the side walls. Then the air moves through the grilles positioned on the upper side of the plenum and flows into the growing volume. Finally it reaches the outlet placed below the tray support (Figure 4D). Directly connected to the Growth Chamber is the HVAC where air is conditioned for temperature and humidity and re-circulated inside the plant growing volume (see the general layout in Figure 5A). Finally, located at the top of the chamber is the lights compartment made up of a lamp loft with two fans for temperature control (see Figure 5B). Three lamps are placed inside the loft and provide illumination to the plants through a tempered glass roof. In the following the analysis performed for each functional area is discussed. Fig. 4 - MPP HPC: Growth Chamber the potential to give an insight into the phenomena leading to non-homogenous growing condition and to provide suggestions on how to mitigate it. Growth Chamber The purpose of the CFD analysis on this functional area is to characterize the fluid dynamic field in the growth volume. Indeed, as mentioned before, plant growth and crop yield are very dependent on the climatic conditions experienced from seeding to harvest. Growth chamber design should be geared towards the minimization of the environmental stress on plants and should guarantee a stable product quality. Simulations are performed in dry conditions where the term High Plant Chamber (HPC) “dry” denotes that the plant presence is not taken into account. The first activity carried out by the EnginSoft CFD team was the Two geometrical configurations are analyzed. As shown in Figure investigation of the fluid dynamic performance of the Melissa 6 the configurations differ in the presence or not of a deflector. Pilot Plant HPC. The design and construction of the chamber are the result of close collaboration between the staff of Angstrom Engineering and the Controlled Environment Systems Research Facility (CESRF) at the University of Guelph. The geometry of the air handling loop is modeled according to the technical drawing provided by the ESA and on the basis of the measurements made onsite during the visit to the chamber Fig. 5 - MPP HPC: Air Handling Unit and Lights Compartment 38 - Newsletter EnginSoft Year 8 n°2 index for the evaluation of the performance of the chamber in terms of flow balancing, the relative standard deviation (RSD) of the mass flow rate in the air grilles is calculated (see Table 1). A lower RSD indicates a more uniform flow distribution which actually should induce a more homogeneous growth condition for the plant. With a relative standard deviation of 110% the configuration with the deflector installed shows a better performance. The airflow at plant level has two main objectives: Fig. 6 - Analyzed configurations of the Growth Chamber: a) No deflector; b) Deflector installed. improving the mass transfer in the foliage and cooling the plants from the lamps’ heat load. Looking at Figure 7 it is possible to observe how the presence Although sufficient mass transfer can be achieved with fairly low of the deflector influences the velocity field in the plenum flow rates, the discharge of the heating load coming from the region. Without the deflector the air flow goes to the top of the illumination system requires a suitable air recirculation. Hence plenum and then moves in the lateral directions while, with the the velocity field is constrained to be limited in magnitude in deflector installed, the main part of the flow is forced to move order to avoid stress on plants and uniformly distributed to laterally when in contact with the perforated plate. guarantee a good quality of the crop. By using the same approach applied to the flow distribution at The fluid dynamics in the growth volume is strictly related to the the grille level, the velocity field in proximity of the trays is velocity field in the plenum region since it affects the distribution of the flow to the air grilles. A balanced air distribution results in a homogeneous air flow on the plants. Assuming that in the optimal scenario each air grille is responsible for feeding 1/9 of air to the correspondent sub-region of the chamber, the objective is the balancing of the flow distribution on the air grilles. In order to have a reliable Table 2 - Velocities and RSDs comparisons evaluated. Nine planes have been placed in proximity of the top of the trays in correspondence to each air grille. The planes’ locations are shown in the figure below. As shown in Table 2, higher mean velocities are present on plane 6 and 7 of the configuration without the deflector. These values are lower than the upper limit of 1[m/s] assumed to be the threshold value for plant stress. Table 1 - Relative standard deviation of Mass Flow rate in the air grilles The obtained results fully agree with the ones given by the flow rate distribution and confirm that the flow distribution is more uniform in the configuration with the deflector installed. Fig. 7 - Growth Chamber: velocity contours in the plenum region HVAC The HVAC is a critical area in the management of the closed life support loop. Healthy and safe conditions of the plants in the growth chamber are herein regulated. The CFD model aims to assess the fluid dynamic performance and highlights critical regions of the flow field. Figure 10 displays the streamlines colored by pressure and velocity. Recirculation regions are located upstream of the cooler. It can be noticed that flow recirculation originates from the presence of a strict elbow at the inlet of the chilling coils. The elbow forces the flow to roughly turn before passing through the water coils and gives rise to a shadow area close to the topside of the cooler amplified by the inlet screen. High pressure values are displayed in correspondence of the screen where the flow runs into the cooler and stagnates. Newsletter EnginSoft Year 8 n°2 - 39 range was discretized by using three bands, and Figure 12 shows the distribution of the irradiation flux at the glass surface for each band. Fig. 9 - Chamber: location of the reference planes Fig. 10 - HVAC: streamlines As a consequence of the flow recirculation, the velocity profiles at the entrance and at the exit of the cooler are not uniform and thus the heat transfer performance of the HVAC is reduced with a negative impact on its efficiency. Computational simulations gave important indications for the improvement of the HVAC design. Conclusions The prospect for use of biologically based life support systems rests on the development of a robust methodology for detailed characterization of plant production. Since the Mars mission requirement is to supply the crew for approximately 1 year with a minimum of 40% dry mass of in-situ harvested plant food, the produced plants have to be of guaranteed stable quality to avoid long-term mission critical nutritional and medical issues for the crew members. The results derived from the study of the ground demonstrator MPP HPC gave useful information on the actual growing conditions of the plants which directly affect the quality of the harvested food. Moreover the knowledge herein gained has been used in the following activities of the Melissa Project to develop the design of a new concept chamber named Plant Characterization Unit Lights Compartment The separation of the light compartment from the growth chamber allows more efficient cooling with ventilation systems that are more compact and less demanding of power. Computational fluid dynamics coupled with the radiant transport equation was used to assess the airflow circulation, evaluate the temperature distribution in the loft and obtain the light incident radiative flux at the boundaries mainly in the glass regions. Figure 11 reveals the details of the flow field within the loft by means of the velocity streamlines. Due to the geometrical (inlet and outlet mutual position) and the physical parameters (mass flow at the inlet), recirculation Fig. 12 - Lights: wall irradiation fluxes at the glass surface areas are inevitably present in the light loft. Concerning radiation, it was taken into account following the (PCU). This chamber is going to be used to characterize the Montecarlo model. Indeed the electromagnetic radiation in the relative performance of cultivars of the crops selected for food visible range is a key factor for plant life, since visible light production in a space based Food Production Unit (FPU). allows the photosynthetic process to take place. Hence the importance of characterizing this spectral region. The visible For further information about Melissa Project, please visit: http://www.esa.int/SPECIALS/Melissa/index.html M. Nobili, L. Bucchieri EnginSoft A. Fossen, E. Peiro Universität Autònoma de Barcelona M. Weihreter, D. Van Der Straeten Ghent University Fig. 11 - Lights: streamlines 40 - Newsletter EnginSoft Year 8 n°2 EnginSoft Successfully Finishes the NEWAC Project ABOUT NEWAC The ‘New Aero Engine Core Concepts’ (NEWAC) project was set up in 2005. It formed part of a series of projects including EEFAE, SILENCER and VITAL that were initiated by the aero engine industry to satisfy society’s continuously rising mobility needs while sparing the environment and resources. Specific targets have been into service. After five years of intensive collaborative research work, NEWAC has developed numerous technologies up to Technology Readiness Levels (TRL) of three to five. Most of these technologies have proven their maturity on rigs, and key constraints have been assessed. Each of the four core concepts investigated in NEWAC has demonstrated considerable potential to enhance the efficiency of future aero-engines. Three combustion concepts (LDI, PERM, LPP) have made considerable progress within the NEWAC project and will be developed to higher TRL in national and European research projects like the LEMCOTEC project which is about to start in autumn this year. EnginSoft: ACTIVITY IN NEWAC EnginSoft has been active with its CFD team in combustion activities for aero-engines for more than a decade. Particularly the team has been contributing in EC funded research projects as well as several engineering consultancies investigating reacting flows with different physical models, with injection optimization studies and finally focusing on low emissions. Fig. 1 - PERM injection system formulated by the Advisory Council for Aeronautics Research in Europe (ACARE). Fuel consumption, CO2 emissions and noise levels will have to be cut in half by 2020 relative to year 2000 aircraft, while also slashing emissions of oxides of nitrogen by 80 per cent. Regarding noise and NOx emissions, future engines will need to contribute the lion’s share to this reduction. The NEWAC technology project addresses novel engine cycles permitting quantum leap improvements and the necessary technologies required to realize those concepts. Aero engines that are in service today have reached a mature status, combining first of all safe design and operation with environmental and economic issues. To ensure that new engine designs will satisfy the same standards requires intensive and thus long lasting and high risk investigations before new designs may be introduced Fig. 2 - Complete combustor Thanks to a wide expertise in CAE (process simulation, CFD, optimization of design), EnginSoft was one of the 40 partners of NEWAC. The main role of EnginSoft in NEWAC was in the combustion research group relative to the PERM combustor, a contribution to the Computational Fluid Dynamics design of Ultra Low NOx AVIO Single Annular Combustor, by means of: 1 Flow field verification of an innovative injection system called PERM, designed by the University of Karlsruhe and Avio, applied for medium overall pressure ratios (20 < OPR < 35): The device consists of a co-rotating double swirler centripetal injector Newsletter EnginSoft Year 8 n°2 - (see Figure 1). This technology is intended to achieve partial evaporation and rapid mixing within the combustor, optimizing the location of the flame and the stability of the lean system. The purpose of CFD analysis and experimental tests on the injection system is to identify the swirler working flow function, and hence the mass flow required in order to reduce emissions under the available pressurization (depending on engine layout) and to verify that the injection system provides good mixing and recirculation for flame stability. In particular, the aim of this activity is to point out any meaningful differences in the injection system performance, depending on plenums sensitivity (geometrical downstream chamber shape strongly affect air distribution) and transient vs. steady state flow field. 2 Optimization of the external flow field of the Ultra Low NOx combustor chamber, focusing on the optimization of some specific components such as cowls and bleeds. In particular, a preliminary 2D optimization study has been performed to provide a general suggestion of the behavior of the fluid upstream the combustor chamber due to different cowl shapes. Then, the results derived from the 2D study have been applied in a 3D investigation on a periodic sector of the complete actual annular combustor (see 2). The objective in this stage is to reach the best layout for dilution holes in order to optimize the combustion process. Acting on the holes’ diameter and position, it is possible to Fig. 3 - Final results 41 change the air distribution and dilution flow diffusion: these aspects contribute to creating a recirculation region which guarantees flame stability as well as cooling. 3 Robust design of the combustion flow field in order to verify the exhaust temperature and the NOx production was finally performed (see Figure 3). This activity is split into two stages: the first regards the CFD software validation on a real experimental test campaign performed by ONERA; the latter applies the models developed in the previous step to the complete and final geometry, as built, of the annular combustor. In conclusion the PERM combustor with medium OPR achieved the NOx target reduction set at 80% and was fully tested and verified both on the ONERA and AVIO test rigs. Therefore the initial challenge of strong emission reduction was reached after 5 years of research, computation and testing. Special thanks go to the international team of experts who shared their knowledge and supplied significant contributions throughout the whole project. For further information: Alessandro Marini - EnginSoft [email protected] Lorenzo Bucchieri - EnginSoft [email protected] 42 - Newsletter EnginSoft Year 8 n°2 Optimization? Do It with Scilab! Several times in this Newsletter we have written about the importance of optimization in companies’ daily activities. We never miss the opportunity to stress the importance of optimization and to explain how optimization can play a significant role in the design cycle. When we talk about optimization, we always refer to real-life applications, as we know that our readers are interested in methods and software for solving industrial cases. Particularly, we refer to problems where multiple and nonlinear objectives are involved. In this article we will introduce you to Scilab1, a numerical computing environment that should be considered as a powerful multiobjective and multidisciplinary optimization software. Scilab is a high-level matrix language with a syntax that is very similar to MATLAB®. Exactly as MATLAB® does, Scilab allows the user to define mathematical models and to connect to existing libraries. As for MATLAB®2, optimization is an important topic for Scilab. Scilab has the capabilities to solve both linear and nonlinear optimization problems, single and multiobjective, by means of a large collection of available algorithms. Here we are presenting an overall idea of the optimization algorithms available in Scilab; the reader can find some code that can be typed and used in the Scilab console to verify the potential of this numerical computing environment for solving very common industrial optimization problems3. Linear and nonlinear optimization As our readers may already know, “optimize” means selecting the best available option from a wide range of possible choices. Doing this as a daily activity can be a complex task as, potentially, a huge number of choices should be tested when using a brute force approach. The mathematical formulation of a general optimization problem can be stated as follows: (x1, …, xn) are the variables, the free parameters which can vary in the domain S. Any time that k>1, we speak about multiobjective optimization. Graphical methods Scilab is very helpful for solving daily optimization problems even simply by means of a graphical method. For example, suppose that you would like to find out the minimum point of the Rosenbrock function. The contour plot can be a visual aid to identify the optimal area. Start up Scilab, copy the following Scilab script and you obtain the plot in Figure 1. function f=rosenbrockC(x1, x2) x = [x1 x2]; f = 100.0 *(x(2)-x(1)^2)^2 + (1-x(1))^2; endfunction xdata = linspace(-2,2,100); ydata = linspace(-2,2,100); contour( xdata , ydata , rosenbrockC , [1 10 100 1000]) The contour plot can be the first step for finding an optimal solution. By the way, solving an optimization problem by means of graphical methods is only feasible when we have a limited number of input variables (2 or 3). In all other cases we need to proceed further and use numerical algorithms to find solutions. Fig. 1 - Contour plot (left) and 3d plot (right) of the Rosenbrock function. With this chart we can identify that the minimum is in the region of the black contour with label 1. These means that a good starting point for further investigations could be x=(0.5,0.5) Newsletter EnginSoft Year 8 n°2 - Optimization algorithms A large collection of different numerical methods is available for further investigations. There are tens of optimization algorithms in Scilab, and each method can be used to solve a specific problem according to the number and smoothness of functions f, the number and type of variables x, the number and type of constraints g. Some methods can be more suitable for constrained optimization, others may be better for convex problems, others can be tailored for solving discrete problems. Specific methods can be useful for solving quadratic programming, nonlinear problems, nonlinear least squares, nonlinear equations, multiobjective optimization, and binary integer programming. Table 1 gives an overview of the optimization algorithms available in Scilab. Many other optimization methods are made available from the community every day as external modules using the ATOMS Portal, http://atoms.scilab.org/. For showing the potentiality of Scilab as an optimization tool, we can start from the most used optimization 43 function: optim. This command provides a set of algorithms for nonlinear unconstrained and boundconstrained optimization problems. Let’s see what happens if we use the optim function for the previous problem: function [ f , g, ind ] = rosenbrock ( x , ind ) f = 100*(x(2)-x(1)^2)^2+(1-x(1))^2; g(1) = - 400. * ( x(2) - x(1)^2 ) * x(1) -2. * ( 1. - x(1) ) g(2) = 200. * ( x(2) - x(1)^2 ) endfunction x0 = [-1.2 1]; [f, x] = optim(rosenbrock, x0); // Display results4 mprintf("x = %s\n", strcat(string(x)," ")); mprintf("f = %e\n", f); If we use x0=[-1.2 1] as initial point, the function converges easily to the optimal point x*=[1,1] with f=0.0. The previous example calculates both the value of the Rosenbrock function and its gradient, as the gradient is required by the optimization method. In many real case applications, the gradient can be too complicated to be computed or simply not available since the function is not known and available only as a black-box from an external function calculation. For this reason, Scilab has the ability to compute the gradient using finite differences by means of the function derivative or the function numdiff. For example the following code define a function f and compute the gradient on a specific point x. function f=myfun(x) f=x(1)*x(1)+x(1)*x(2) endfunction x=[5 8] g=numdiff(myfun,x) Fig. 2 - Convergence of the Nelder-Mead Simplex algorithms (fminsearch function) on the Rosenbrock example. These two functions (derivative and numdiff) can be used together with optim to minimize problem where gradient is too complicated to be programmed. The optim function uses a quasi-Newton method based on BFGS formula that is an accurate algorithm for local optimization. On the same example, we can even apply a different optimization approach such as the derivative-free Nelder-Mead Simplex [1] that is implemented in the function fminsearch. To do that we just have to substitute the line: [f, x] = optim(rosenbrock, x0); With [x,f] = fminsearch(rosenbrock, x0); Table 1 - This table gives an overview of the optimization algorithms available in Scilab and the type of optimization problems which can be solved. For the constraints columns, the letter “l” means “linear”. For the problem size s,m,l indicate small, medium and large respectively that means less than ten, tens or hundreds of variables This Nelder-Mead Simplex algorithm, starting from the same initial point, 44 - Newsletter EnginSoft Year 8 n°2 converges very closely to the optimal point and precisely to x*=[1.000022 1.0000422] with f=8.177661e-010. This shows that the second approach is less accurate than the previous one: this is the price to pay in order to have a more robust approach that is less influenced by noisy functions and local optima. Figure 2 shows the convergence of the Nelder-Mead Simplex method on the Rosenbrock function. It is important to say that, in the previous example, the function is given by means of a Scilab script but this was only done for simplicity. It is always possible to evaluate the function f as an external function such as a C, Fortran or Java program or external commercial solver. Parameter identification using measured data In this short paragraph we show a specific optimization problem that is very common in engineering. We demonstrate how fast and easy it can be to make a parametric identification for nonlinear systems, based on input/output data. Suppose for example that we have a certain number of measurements in the matrix X and the value of the output in the vector Y. Suppose that we know the function describing the model (FF) apart from a set of parameters p and we would like to find out the value of those parameters. It is sufficient to write few lines of Scilab code to solve the problem: //model with parameters p function y=FF(x, p) y=p(1)*(x-p(2))+p(3)*x.*x; endfunction Z=[Y;X]; //The criterion for evaluating the error function e=G(p, z) y=z(1),x=z(2); e=y-FF(x,p), endfunction Fig. 3 - Optimization of the Rosenbrock function by means of a Genetic Algorithm. Initial random population is in yellow, final population is in red and converges to the real optimal solution. algorithms are largely used in real-world problems as well as in a number of engineering applications that are hard to solve with “classical” methods. Using the genetic algorithms in Scilab is very simple: in a few lines it is possible to set the required parameters such as the number of generations, the population size, the probability of cross-over and mutation. Fig. 3 shows a single objective genetic algorithm optim_ga on the Rosenbrock function. Twenty initial random points (in yellow) evolve through 50 generations towards the optimal point. The final generation is plotted in red. Multiobjective Scilab is not only for single objective problems. It can easily deal with multiobjective optimization problems. Just to list one of the available methods, Scilab users can take advantage of the NSGA-II. NSGA-II is the second version of the famous “Non-dominated Sorting Genetic Algorithm” based on the work of Prof. Kalyanmoy Deb [3]. //Solve the problem giving an initial guess for p p0=[1;2;3] [p,err]=datafit(G,Z,p0); This method is very fast and efficient, it can find parameters for a high number of input/output data. Moreover it can take into consideration parameters’ bounds and weights for points. Evolutionary Algorithms: Genetic and Multiobjective Genetic algorithms [2] are search methods based on the mechanics of natural evolution and selection. These methods are widely used for solving highly non-linear real-life problems because of their ability to remain robust even against noisy functions and local optima. Genetic Fig. 4 - ZDT1 problem solved with the Scilab’s NSGA-II optimization algorithm. Red points on the top represents the initial populations, black points on the bottom the final Pareto population. The solid line represents the Pareto frontier that, in this specific example, is a continuous convex solution. Newsletter EnginSoft Year 8 n°2 - NSGA-II is a fast and elitist multiobjective evolutionary algorithm. Figure 4 shows a multiobjective optimization run with NSGA-II using the test problem ZDT1. The test problem states: function f=zdt1(x) f1_x1 = x(:,1); g_x2 = 1 + 9 * ((x(:,2)-x(:,1)).^2); h = 1 - sqrt(f1_x1 ./ g_x2); 45 Solving the cutting stock problem: reducing the waste The cutting stock problem is a very common optimization problem in industries and it is economically significant. It consists on finding the optimal way of cutting a semiprocessed product into different sizes in order to satisfy a set of customers’ demands by using the material in the most efficient way. This type of problem arises very often in industries and can involve a variety of different goals such as minimizing the costs, minimizing the number of f(:,1) = f1_x1; f(:,2) = g_x2 .* h; endfunction With the ZDT1 we want to minimize both f1 and f2: this means that we are dealing with a multiobjective problem. With these problems, the notion of optimal solutions changes. A multiobjective optimization does not produce a unique solution but a set of solutions. These solutions are named non-dominated5 or Pareto solutions, the set of solutions can be called Pareto frontier. Figure 4 shows the solutions given by the Scilab’s NSGAII optimization algorithm for solving the ZDT1 problem. Red points on the top are the initial random populations, black points on the bottom the final Pareto population. The solid line represents the actual Pareto frontier that, in this specific example, is a continuous convex solution and is known. In this example, the concept of Pareto dominance is clear. Red points on the top are dominated by black points on the bottom because red points are worse than black points with respect to both objectives f1 and f2. On the contrary, all black points on the bottom figure are not dominating each other, and we may say in this case that all the black points represent the set of efficient solutions. To understand how Scilab recognizes the importance of multiobjective optimization, we can even note that it has an internal function named pareto_filter that is able to filter non-dominated solutions on large set of data. X_in=rand(1000,2); F_in=zdt1(X_in); [F_out,X_out,Ind_out] = pareto_filter(F_in,X_in) drawlater; plot(F_in(:,1),F_in(:,2),'.r') plot(F_out(:,1),F_out(:,2),'.b') drawnow; The previous code generates 1,000 random input values, evaluates the zdt1 function and computes the nondominated solutions. The last four lines of the code generate the following chart (Figure 6) with all the points in red and the Pareto points in blue. Fig. 5 - zdt1 function evaluate on 1,000 random points. Blue points are non-dominated Pareto solutions. The code for selecting the Pareto solution is reported in the text. The main function to be used is “pareto_filter”. cuts, minimizing the waste of material and consequently costs, and so on. Whatever the target is, it is always true that small improvements in the cutting layout can result in remarkable savings of material and considerable reduction in production costs. In this section we will show how to solve a onedimensional (1D) cutting stock problem with Scilab. Solving a 1D cutting stock problem is less complex than solving a 2D cutting stock problem (e.g. cutting rectangles from a sheet), nevertheless it represents an interesting and common problem. The 1D problem can arise, for example, in the construction industries where steel bars are needed in specified quantities and lengths and are cut from existing long bars with standard lengths. It is well-known that cutting losses are perhaps the most significant cause of waste. Suppose now that you are working for a company producing pipes that have usually a fixed length waiting to be cut. These tubes are to be cut into different lengths to meet customers’ requests. How can we cut the tubes in order to minimize the total waste? The mathematical formulation for the 1D cutting stock problems can be: Where, i is the index of the patterns, j the index of the lengths, xi are the number of cutting patterns i (decision 46 - Newsletter EnginSoft Year 8 n°2 variables) and ci are the costs of the pattern i. A=(aij) the matrix of all possible patterns and qj the customers’ requests. We may say that the value aij indicates the number of pieces of length j within one pipe cut in the pattern i. The goal of this model is to minimize the objective function which consists of the total costs of the cutting phase. If ci is equal to 1 for all the patterns, the goal corresponds to the total number of pipes required to accomplish the requirements. Let’s make a practical example and solve it with Scilab. Suppose that we have 3 possible sizes, 55mm, 26mm, and 24mm in which we can cut the original pipe of 100 mm. The possible patterns are: 1. One cut of type one and one of type two and zero of type three [1 1 0] 2. One cut of type one and one of type three [1 0 1] 3. Two cut of type two and two of type three [0 2 2] These patterns define the matrix A. Then we have the costs that are 4, 3 and 1 for the pattern 1, 2 and 3 respectively. The total request from the customers are: 150 pieces of length 55mm, 200 with length equal to 26mm and 300 pieces with length 24mm. For solving this problem in Scilab we can use this script. //pattern aij=[ 1 1 0; 1 0 1; 0 2 2]; //costs ci=[4; 3; 1]; //request qj=[150; 200; 300]; xopt = karmarkar(aij',qj,ci) Running this script with Scilab you obtain xopt=[25, 125, 87.5], this means that to satisfy the requests reducing the total number of pipes we have to cut 25 times the pattern (1), 125 times with pattern (2) and 87.5 times the pattern (3). We show here a simple case with only three different requests and three different patterns. The problem can be much more complicated, with many more options, many different dimensions, costs and requests. It may include the maximum number of cuts on a single piece, it may require a bit of effort in generating the list of feasible patterns (i.e. the matrix A). All these difficulties can be coded with Scilab and the logic behind the approach remains the same. The previous script uses the Karmarkar’s algorithm [4] to solve this linear problem. The result gives an output that is not an integer solution, hence we need to approximate because we cannot cut 87.5 pipes with the third pattern. This approximated solution can be improved with another different optimization algorithm, for example evaluating the nearest integer solutions or using a more robust genetic algorithm. But even if we stop with the first step and we round off the solution, we have a good reduction of waste. Conclusions As the solution of the cutting stock problem demonstrates, Scilab is not just an educational tool but a product for solving real industrial problems. The cutting stock problem is a common issue in industries, and a good solution can result in remarkable savings. By the way, in this article we presented only a small subset of the possibilities that a Scilab user can have for solving realworld problems. For the sake of simplicity, this paper shows only very trivial functions that have been used for the purpose of making a short and general tutorial. Obviously these simple functions can be substituted by more complex and time consuming ones such as FEM solvers or other external simulation codes. MATLAB users have probably recognized the similarities between the commercial software and Scilab. We hope all other readers have not been scared by the fact that problems and methods should be written down as scripts. Once the logic is clear, writing down scripts can result in an agile and exciting activity. For more information and for the original version of Scilab scripts: Silvia Poles – EnginSoft [email protected] References [1] Nelder, John A.; R. Mead (1965). "A simplex method for function minimization". Computer Journal 7: 308–313 [2] David E. Goldberg. Genetic Algorithms in Search, Optimization & Machine Learning. Addison-Wesley, 1989. [3] N. Srinivas and Kalyanmoy Deb. Multiobjective optimization using nondominated sorting in genetic algorithms. Evolutionary Computation, 2:221{248, 1994 [4] Narendra Karmarkar (1984). "A New Polynomial Time Algorithm for Linear Programming", Combinatorica, Vol 4, nr. 4, p. 373–395. 1 Download Scilab for free at http://www.scilab.org/ 2 MATLAB is a registered trademark of The MathWorks, Inc 3 Contact the author for the original version of the Scilab scripts 4 The symbol “//” indicates a comment 5 By definition we say that the design a dominates b if [f1(a) <= f1(b) and f2(a) <= f2(b)...and fk(a) <= fk(b)], for all the f and [f1(a) < f1(b) or f2(a) < f2(b)...or fk(a) < fk(b)] for at least one f Newsletter EnginSoft Year 8 n°2 - 47 Weather Forecasting with Scilab The weather is probably one of the most discussed topics all around the world. People are always interested in weather forecasts, and our life is strongly influenced by the weather conditions. Let us just think of the farmer and his harvest or of the happy family who wants to spend a weekend on the beach, and we understand that there could be thousands of good reasons to be interested in knowing the weather conditions in advance. This probably explains why, normally, the weather forecast is the most awaited moment by the public in a television newscast. Sun, wind, rain, temperature… the weather seems to be unpredictable, especially when we consider extreme events. Man has always tried to develop techniques to master this topic, but practically only after the Second World War the scientific approach together with the advent of the media have allowed a large diffusion of reliable weather forecasts. To succeed in forecasting, it is mandatory to have a collection of measurements of the most important physical indicators which can be used to define the weather in some relevant points of a region at different times. Then, we certainly need a reliable mathematical model which is able to predict the values of the weather indicators at points and times where no direct measurements are available. Nowadays, very sophisticated models are used to forecast the weather conditions, based on registered measurements such as the temperature, the atmospheric pressure, the air humidity as so forth. It is quite obvious that the larger the dataset of measurements the better the prediction: this is the reason why the institutions involved in monitoring and forecasting the weather usually have a large number of stations spread on the terrain, opportunely positioned to capture relevant information. This is the case of Meteo Trentino (see [3]), which manages a network of measurement stations in Trentino region and provides daily weather forecasts. Among the large amount of interesting information we can find in their website, there are the temperature maps, where the predicted temperature at the terrain level for the Trentino province is reported for a chosen instant. These maps are based on a set of measurements available from the stations: an algorithm is able to predict the temperature field in all the points within the region and, therefore, to plot a temperature map. We do not know the algorithm that Meteo Trentino uses to build these maps, but we would like to set up our own procedure able to obtain similar results. To this aim, we decided to use Scilab (see [1]) as a platform to develop such a predictive model and gmsh (see [2]) as a tool to display the results. Probably one of the most popular algorithms in the geosciences domain used to interpolate data is Kriging (see [5]). This algorithm has the notable advantage of exactly interpolating known data; it is also able to potentially capture non-linear responses and, finally, to provide an estimation of the prediction error. This valuable last feature could be used, for example, to choose in an optimal way the position of new measurement stations on the terrain. Scilab has an external toolbox available through ATOMS, named DACE (which stands for Design and Analysis of Computer Experiments), which implements the Kriging algorithm. This obviously allows us to implement more rapidly our procedure because we can use the toolbox as a sort of black-box, avoiding in this way spending time implementing a non-trivial algorithm. The weather data We decided to download from [3] all the available temperatures reported by the measurement stations. As a result we have 102 formatted text files (an example is given in Figure 1) containing the maximum, the minimum and the mean temperature with a timestep of one hour. In our work we only consider the “good” values of the Fig. 1 - The hourly temperature measures for the Moena station: the mean, the minimum and the maximum values are reported together with the quality of the measure. 48 - Newsletter EnginSoft Year 8 n°2 mean temperature: there is actually an additional column which contains the quality of the reported measure which could be “good”, “uncertain”, “not validated” and “missing”. The terrain data Another important piece of information we need is the “orography” of the region under exam. In other words we need to have a set of triplets giving the latitude, the longitude and the elevation of the terrain. This last information is mandatory to build a temperature map at Fig. 2 - An example of the DTM file formatted to the ESRI standard. The matrix contains the elevation of a grid of points whose position is given with reference to the Gauss Boaga Roma 40 system. the terrain level. To this aim we downloaded the DTM (Digital Terrain Model) files available in [4] which, summed all together, contain a very fine grid of points (with a 40 meters step both in latitude and longitude) of the Trentino province. These files are formatted according to the ESRI standard and they refer to the Gauss Boaga Roma 40 system. Set up the procedure and the DACE toolbox We decided to translate all the terrain information to the UTM WGS84 system in order to have a unique reference for our data. This operation can be done just once and the results stored in a new dataset to speed up the following computations. Then we have to extract from the temperature files the available data for a given instant, chosen by the user, and Fig. 4 - 6th May 2010 at 17:00. Top: the predicted temperature at the terrain level using Kriging is plotted. The temperature follows very closely the height on the sea level. Bottom: the temperature map predicted using a linear model relating the temperature to the height. At a first glance these plots could appear exactly equal: this is not exact, actually slight differences are present especially in the valleys. Fig. 3 - The information contained into one DTM file is graphically rendered. As a results we obtain a plot of the terrain. store them. With these data we are able to build a Kriging model, thanks to the DACE toolbox. Once the model is available, we can ask for the temperature at all the points belonging to the terrain grid defined in the DTM files and plot the obtained results. One interesting feature of the Kriging algorithm is that it is able to provide an expected deviation from the prediction. This means that we can have an idea of the degree to which our prediction is reliable and eventually estimate a possible range Newsletter EnginSoft Year 8 n°2 - Fig. 5 - 6th May 2010 at 17:00. The measured temperatures are plotted versus the height on the sea level. The linear regression line, plotted in red, seems to be a good approximation: the temperature decreases 0.756 [°C] every 100 [m] of height. 49 the linear model is appropriate to capture the relation between the temperature and the height. If we compare the results obtained with Kriging and this last approach some differences appear, especially down in the valleys: the Kriging model seems to give more detailed results. If we consider January 20th, the temperature can no longer be computed as a function of only the terrain height. It immediately appears, looking at Figure 8, that there are large deviations from a pure linear correlation between the temperature and the height. The Kriging model, whose result is drawn in Figure 7, is able to capture also local of variation: this is quite interesting when forecasting an environmental temperature. Some results We chose two different days of 2010 (the 6th of May, 17:00 and the 20th of January, 08:00) and ran our procedure to build the temperature maps. In Figure 5 the measured temperatures at the 6th of May are plotted versus the height on the sea level of the stations. It can be seen that a linear model can be considered as a good model to fit the data. We can conclude that the temperature decreases linearly with the height of around 0.756 [°C] every 100 [m]. For this reason one could be tempted to use such model to predict the temperature at the terrain level: the result of this prediction, which is reported in Figure 4, is as accurate as Fig. 6 - 6th May 2010 at 17:00. The estimated error in predicting the temperature field with Kriging is plotted. The measurement stations are reported on the map with a code number: it can be seen that the smallest errors are registered close to the 39 stations while, as expected, the highest estimated errors are typical of zones where no measure is available. Fig. 7 - 20th January 2010 at 08:00. Top: the predicted temperature with the Kriging model at the terrain level is plotted. Globally, the temperature still follows the height on the sea level but locally this trend is not respected. Bottom: the temperature map predicted using a linear model relating the temperature to the height. 50 - Newsletter EnginSoft Year 8 n°2 starting from a set of measurements and from information regarding the terrain of the region. We have shown that the Kriging algorithm can be used to get an estimated value and an expected variation around it: this is a very interesting feature which can be used to give a reliability indication of the prevision. Fig. 8 - 20th January 2010 at 08:00. The measured temperatures are plotted versus the height on the sea level. The linear regression line, plotted in red, says that the temperature decreases 0.309 [°C] every 100 [m] of height but it seems not to be a good approximation in this case; there are actually very large deviations from the linear trend. This approach could be used also with other atmospheric indicators, such as the air pressure, the humidity and so forth. References [1] http://www.scilab.org/ to have more information on Scilab. [2] The Gmsh can be freely downloaded from: http://www.geuz.org/gmsh/ [3] The official website of Meteo Trentino is http://www.meteotrentino.it from where the temperature data used in this work has been downloaded. [4] The DTM files have been downloaded from the official website of Servizio Urbanistica e Tutela del Paesaggio http://www.urbanistica.provincia.tn.it/ sez_siat/siat_urbanistica/pagina83.html. [5] Søren N. Lophaven, Hans Bruun Nielsen, Jacob Søndergaard, DACE A Matlab Kriging Toolbox, download from http://www2.imm.dtu.dk/~hbn/dace/dace.pdf. Fig. 9 - 20th January 2010 at 08:00. The estimated error in predicting the temperature field with the Kriging technique is plotted. The measurement stations are reported on the map with a code number: it can be seen that the smallest errors are registered close to the 38 stations. Contacts For more information on this document please contact the author: Massimiliano Margonari - EnginSoft S.p.A. [email protected] positive or negative peaks in the temperature field, which cannot be predicted otherwise. In this case, however, it can be seen that the estimated error (Figure 9) is larger than the one obtained for 17th of May (Figure 6): this lets us imagine that the temperature is in this case much more difficult to capture correctly. Conclusions In this work it has been shown how to use Scilab and its DACE toolbox to forecast the temperature field Fig. 10 - 20th January 2010 at 08:00. The estimated temperature using Kriging: a detail of the Gruppo Brenta. The black vertical bars reports the positions of the meteorological stations. Newsletter EnginSoft Year 8 n°2 - 51 Il processo di stampaggio a caldo di acciaio in stampi chiusi è stato storicamente uno dei primi processi investigati attraverso le tecniche di simulazione numerica. Il principale motivo risale ad un elevato grado di ripetitibilità ed una “massiva” produzione dell’ordine di qualche centinaia o migliaia di pezzi durante la quale tutti i parametri di processo, quali ad esempio il riscaldo in forno, il trasferimento, la cinematica della pressa e la lubrificazione, possono essere mantenuti pressoché costanti. In questo tipo di processo i tipici difetti di ripiega o mancanza di riempimento si presentano normalmente in modo sistematico. Essi sono spesso riconducibili ad una scelta non ideale delle condizioni iniziali di stampaggio quali la dimensioni e posizione della barra di partenza, oppure, nel caso di processi in più operazioni, dovuti ad una scelta non corretta della stazione di preformatura. Proprio la preformatura ha come obiettivo lo spostamento opportuno del materiale in prossimità delle aree massive del pezzo forgiato finito per agevolare le operazioni successive con il minor flusso e deformazione possibile del materiale. Per ottenere questo risultato nella pratica si possono utilizzare delle macchine quali dei magli a formare, rollatrici assiali o tangenziali, oppure altre macchine a cinematica più complessa con più azioni. Terminata la fase di finitura, i pezzi vengono normalmente sbavati e/o tranciati (eccetto i pochi particolari producibili near-net-shape), talvolta ritorti e/o coniati che infine vengono sottoposti a trattamento termico di tempra o bonifica. Nel caso di formatura al maglio o mediante pressa a vite ove i particolari siano molto massivi o sia necessario formare in più colpi, è necessario definire anche tutti i raffreddamenti (in aria o a contatto con lo stampo) tra le fasi. Risolti i problemi di qualità del pezzo, sarà infine possibile quantificare la forza necessaria per ottenere la geometria voluta e quindi verificare lo stato di sollecitazione sugli stampi, con l’obiettivo di identificare le zone più critiche a rischio di rottura in modo da migliorare nel complesso il processo di produzione. L’obiettivo di questo articolo è presentare una rassegna di applicazioni industriali reali, nei quali il software Forge, prodotto da Transvalor S.A. e distribuito in Italia da EnginSoft, ha permesso di ottenere dei miglioramenti sensibili della qualità dei pezzi prodotti, oltre che una riduzione del materiale in bava. Molti degli esempi che verranno mostrati fanno parte dell’esperienza accumulata dai tecnici di EnginSoft in oltre 15 anni di attività di consulenza e supporto nel settore dello stampaggio. Quali sono gli aspetti che rendono Forge lo strumento adatto alla simulazione del processo di stampaggio a caldo di acciaio? Normalmente gli stampi hanno una forma anche molto complessa e provengono da CAD anche molto diversi: Forge garantisce la massima compatibilità nell’importazione, attraverso i formati stl o step ed il rapido ottenimento di superfici adatte alla simulazione attraverso meshatori 2D e 3D rapidi e precisi. Secondo aspetto, la conoscenza del materiale in funzione delle temperature e velocità di deformazione: Forge ha un database di oltre 800 leghe ferrose e non, dove sono definite le funzioni sforzo-deformazione elasto-visco-plastiche dei materiali alla temperatura di stampaggio. Per quanto riguarda il contatto pezzo-stampi, in Le caratteristiche meccaniche finali del prodotto sono la conseguenza di tutte le fasi sommariamente descritte in precedenza. A questo riguardo, per essere efficiente, uno strumento di simulazione deve essere in grado di consentire l’impostazione “a-priori” di tutta la sequenza di stampaggio, in modo da effettuare il trasferimento delle informazioni (deformazione e temperature) in modo automatico tra le fasi. Questo aspetto risulta essenziale infine se si voglia ottenere una ottimizzazione automatica del processo di stampaggio, tema che affronteremo in chiusura. Un esempio di una sequenza complessa di formatura, nello specifico di un mozzo, è mostrato in fig. 1. Fig. 1 – mozzo – sequenza complessa - la simulazione è molto prossima alla realtà SIMULAZIONE DI PROCESSO PER OTTENERE COMPONENTI STAMPATI DI QUALITÀ Ottimizzare il processo per ottenere dei componenti stampati di elevata qualità: esperienze di simulazione di stampaggio a caldo di acciaio con pressa o maglio 52 - Newsletter EnginSoft Year 8 n°2 Forge sono implementate le leggi di attrito e di scambio termico validate mediante confronto con la realtà, con la possibilità di applicare lubrificazioni o riscaldi localizzati del pezzo. Per quanto riguarda la definizione della cinematica, è possibile sfruttare un database completo di presse meccaniche tradizionali, a ginocchiera, link-drive, magli semplici, a doppio effetto, a contraccolpo, preformatrici assiali e tangenziali, ma si possono anche definire presse innovative con azionamenti a piacere di tutti gli stampi ed i punzoni. Tale flessibilità non va però a scapito della semplicità d’uso: per ogni tipologia di processo sono presenti un template ed un help on-line che li rende di semplice ed immediato apprendimento. Iniziamo quindi il nostro percorso attraverso le varie fasi necessarie ad ottenere un pezzo stampato a caldo. Fasi pre-formatura: riscaldo in forno e tranciatura della billetta Il riscaldo del materiale avviene in forno a gas o forno ad induzione e può essere effettuata prima o dopo il taglio della billetta. Normalmente questa fase non viene simulata, in quanto si assume che la billetta esca dal forno ad una temperatura costante (1150-1250°C per l’acciaio), impostando quindi tale temperatura come condizione iniziale delle operazioni successive. In alcuni casi è tut- Operazioni di preformatura La preformatura della barra può avvenire con delle semplici fasi di ricalcatura verticale o piegatura, oppure mediante macchine con rulli in rotazione, in grado di spostare il materiale nelle zone dove il pezzo da produrre deve essere più massivo. Nelle fig. 4 e 5 due esempi di preformatura per rollatura. Spesso si preferisce non effettuare la simulazione anche di queste fasi e partire quindi dalla billetta rollata, per la cui definizione è stata sviluppata in Forge una funzione ad-hoc, che come vedremo verrà utilizzata nell’esempio conclusivo di ottimizzazione. Fig. 4 - preformatura per rollatura tangenziale Fig. 5 - preformatura per rollatura assiale Operazioni di finitura La caratteristica principale dello stampaggio a caldo in stampi chiusi è la ripetibilità, che si ottiene innanzitutto garantendo una posizione univoca della barra nello stampo. Questo non è sempre facile quando si utilizza una billetta cilindrica e quindi la simulazione della stabilizzazione della stessa per gravità, con o senza accorgimenti (fig. 6), può avere notevole interesse. Fig 2 – riscaldo estremità barra preformata Fig 3 – taglio a caldo di una billetta Gli stampi di finitura ricalcano fedelmente, in negativo, il pezzo da produrre, quindi è fondamentale in quetavia necessario impostare un riscaldamento del materiale sta fase andare a valutare se il riempimento dell’impronta è solo in una determinata zona, quella che poi verrà effettivacompleto o vi sono della mancanze. Nella fig. 7 è mostrato mente deformata. Nella fig. 2 è mostrato il riscaldamento un albero a gomiti, per il quale nelle zone rosse sono evidendifferenziato della barra. Allo stesso modo, la fase di tranciaziate le mancanze di riempimento nell’impronta. Il grosso tura della billetta normalmente non viene simulata, a meno vantaggio della simulazione è che consente di “mettere la teche i difetti riscontrati sul pezzo reale, oppure una ripiega laterale in fase di ricalcatura, non siano riconducibili ad una forma iniziale non regolare della billetta. Solo in questi casi si ricorre alla simulazione della tranciatura della billetta, che viene effettuata abilitando in Forge le funzioni di danneggiamento del materiale, con il risultato mostrato in fig. 3. Fig 6. – appoggio per gravità – sedi ricavate su stampo inferiore Fig. 7 – albero a gomiti – mancanze di riempimento dell’impronta (in rosso) Newsletter EnginSoft Year 8 n°2 - sta tra gli stampi” e capire, istante dopo istante, come il materiale viene deformato e quindi il motivo della formazione delle mancanze o delle ripieghe. È nelle fasi di formatura che la maggior parte dei difetti viene originata, motivo per cui di seguito saranno illustrati alcuni esempi pratici di previsione di difetti. 53 Corona: la lavorazione meccanica effettuata sul pezzo evidenzia una ripiega di materiale in una posizione ben definita. L’analisi della fibratura e l’utilizzo di superfici traccianti (vedi Fig. 10) ha consentito di valutare come si muove il materiale, comprendendo la causa del difetto ed intervenendo quindi in modo opportuno per eliminarlo. Ipotesi A – viene alzata la cartella centrale. NO, richiede rifacimento stampi. Ipotesi B – modifica del raggio di curvatura. OK, si può fresare la curvatura. Fig. 8 – corpo riduttore– analisi del difetto e contromisure verificate con la simulazione. ticipato la parte inferiore del pezzo. Durante il riempimento della parte superiore si genera quindi uno scorrimento di materiale lungo una direzione privilegiata, che richiama verso l’interno l’acciaio della superficie. Sono stati valutati due possibili interventi, entrambi in grado di ridurre questo effetto: uno spostamento verso l’alto della cartella, scartato in quanto avrebbe comportato il rifacimento completo degli stampi, oppure un raggio inferiore maggiore, accettato in quanto comportava unicamente una fresatura dello stampo, che era già stato realizzato. In fig. 8. sono mostrati i risultati di questo studio. Fig. 10 – corona – grazie alle fibre ed alle superfici traccianti il difetto sottopelle viene individuato. Albero a gomiti: per questo particolare è stato richiesto di certificare che la parte centrale della billetta, notoriamente con caratteristiche inferiori al resto, non andasse a interferire con una zona che viene successivamente lavorata alla macchina utensile (indicato in rosso in fig. 11). È stata applicata, a-posteriori rispetto alla simulazione di stampaggio, una superficie cilindrica in corrispondenza del cuore della barra per seguirne la deformazione durante tutto il processo di stampaggio. La simulazione ha mostrato come la zona di interesse non sia attraversata dal cuore della billetta. La corrispondenza molto elevata con il test reale a partire da una billetta bi-materiale ha reso pratica comune utilizzare questo Mozzo ruota: come risulta evidente in fig. 9, il materiale tende a riempire la flangia inferiore troppo in anticipo rispetto al completamento dell’estrusione verso il mozzo. Il mate- Fig. 9 – mozzo ruota – la simulazione evidenzia i motivi di formazione della ripega. riale viene quindi richiamato verso la bava e trascina con se il materiale interno, formando la ripiega riscontrata nel pezzo reale. L’analisi della simulazione ha consentito di calibrare il processo per evitare la formazione del difetto. Fig. 11 – albero a gomiti – deformazione della zona centrale e confronto con la realtà. SIMULAZIONE DI PROCESSO PER OTTENERE COMPONENTI STAMPATI DI QUALITÀ Corpo riduttore: in questo particolare assialsimmetrico, stampato in due passaggi mediante maglio a contraccolpo, si è riscontrato in fase di tranciatura del foro un difetto nella parte inferiore. La simulazione ha consentito, attraverso l’analisi delle velocità e delle fibre, di comprendere che il difetto si origina a causa del materiale che riempie in modo an- 54 - Newsletter EnginSoft Year 8 n°2 approccio per la validazione di tutti gli alberi simili prodotti. Valvola biomedicale: quando i prodotti sono destinati a settori particolari, quali ad esempio l'industria farmaceutica, la qualità richiesta è assoluta ed ogni imperfezione potrebbe dar luogo a non conformità disastrose. Forge ha permesso di individuare una ripiega insidiosa (vedi fig. 12) e sviluppare una modifica dello stampo in grado di eliminare il difetto. Fig. 12 – valvola biomedicale – pezzo reale con difetto di stampaggio, evidenziato e risolto con Forge. Protesi d’anca: lo stampaggio di un particolare biomedicale, quale una protesi d’anca, richiede materiali particolari (es. titanio) ed un processo in grado di eliminare ogni tipo di difetto. Per la tracciatura dei difetti, il programma è stato recentemente migliorato, aggiungendo al risultato “folds”, in grado di indicare le zone soggette a ripiega, un nuovo risultato “auto-contact” che, tramite dei traccianti generati in automatico, consente di valutare forma, dimensioni e quindi Fig. 13 – protesi d’anca in Ti – la ripiega rimane nel pezzo e non esce completamente in bava. profondità di una ripiega, indicando se il processo è in grado di portare il difetto verso la bava o se questo rimane nella zona d’impronta. Nella fig. 13 è mostrata una protesi d’anca in titanio, nella quale la ripiega non è completamente esterna all’impronta. Cappello valvola: per questo ultimo particolare l’analisi ha avuto come obiettivo il risparmio di materiale. Mediante la Fig. 14 – cappello valvola – risparmio del 25% di materiale. simulazione di differenti ipotesi iniziali di billetta si è ottenuto un risparmio di ben 1kg rispetto ai 4.6kg iniziali, pari ad un 25% di materiale, come evidenzia la fig. 14. Tranciatura, sbavatura, foratura Terminata la fase di formatura, normalmente il pezzo viene tranciato e/o forato. Può essere utile simulare anche questa operazione se si riscontrano sul pezzo della distorsioni di forma importanti o delle ricalcature di materiale. Forge consente di impostare a piacere il movimento degli utensili di trancia e di valutare, abilitando le funzioni di danneggiamento del materiale, come avviene la rottura del materiale, fornendo anche la forza necessaria per la tranciatura stessa. Nella fig. 15 è mostrato il processo di tranciatura contemporanea delle bave e del fondello Fig. 15 – semirullo in acciaio – tranciatura per un semirullo in delle bave e del fondello. acciaio. Trattamento termico di tempra Completate le operazioni di formatura del materiale, il particolare viene temprato per migliorarne le caratteristiche meccaniche e la durezza. La tempra può avvenire secondo diverse modalità, ma sostanzialmente consiste in un riscaldamento del pezzo alla temperatura di austenitizzazione, seguito da un brusco raffreddamento in un mezzo opportuno in grado di indurre le trasformazioni di fase nell’acciaio e la formazione di martensite nelle zone che necessitano di maggiore durez- Fig. 16 – albero a gomiti – in rosso le zone con microstruttura martensitica. za e proprietà meccaniche. La tempra deve essere effettuata in maniera controllata, in quanto l’espansione del reticolo cristallino legata alla formazione di martensite può portare, soprattutto in particolari lunghi quali gli alberi, ad una distorsione macroscopica per flessione degli stessi. Per quanto riguarda la simulazione, è possibile studiare sia la fase di austenitizzazione che di tempra dal punto di vista termico con un modello meccanico-termico-microstrutturale accoppiato legato alle curve TTT del materiale, per determinare correttamente le fasi che si vengono a formare, le relative distorsioni e la durezza finale del particolare, come è mostrato in fig. 16. Analisi del carico pressa e dei carichi sugli stampi Una volta messo a punto il pezzo è utile valutare le azioni sulla pressa e sugli stampi, per capire se la linea che abbia- Newsletter EnginSoft Year 8 n°2 - Albero bicilindrico: l’analisi della risultante sugli stampi evidenzia come nella sezione longitudinale la risultante sia allineata rispetto al centro stampi, mentre nella sezione trasversale vi sia un disallineamento legato al fatto che il pezzo risulta più lungo da un lato (fig. 17). Questo nella realtà provoca delle misure in chiusura non corrette la cui causa è difficile da individuare. La simulazione ha mostrato questo effetto di momento torcente sulla pressa in grado di influenzare le misure in chiusura. Una volta individuato il motivo, l’azione di torsione è stata annullata con una revisione dello stampo in grado di centrare la risultante degli sforzi a cuore del porta stampo. stampo e portastampo. La simulazione ha consentito di valutare il valore e le componenti della forza risultante sugli stampi. Sono state considerate diverse geometrie, identiche in termini di impronta, ma differenti per quanto riguarda l’inclinazione dei piani degli stampi ottimizzandone la calibrazione in modo da contrastare la componente orizzontale della forza. La configurazione scelta ha consentito di ridurre la componente orizzontale da 1800 a 600 tonnellate, come mostrato in fig. 18, con un deciso allungamento della vita degli stampi. Albero a gomiti: in alcune configurazioni gli stampi denotano una rottura prematura in zone ben specifiche come nel caso illustrato in fig. 19. Mediante una rapida simulazione della deformazione elastica subita dagli stampi per effetto degli sforzi trasferiti dal pezzo, è possibile individuare le zone Fig. 19 – albero a gomiti – l’analisi degli stampi evidenzia le zone a rischio di rottura. Fig. 17 – albero bicilindrico – la risultante degli sforzi nella sezione trasversale genera una torsione. maggiormente sollecitate. Il confronto tra differenti configurazioni di stampaggio consente quindi, a parità di scala, di valutare le soluzioni più efficaci per ridurre il sovraccarico e portare quindi la configurazione ad un incremento spesso infinito della vita degli stampi. In altri casi si riscontra una Suola per cingoli: la produzione di suole per cingoli generalmente è ottenuta per tranciatura e punzonatura, ma per tipi di forma complessa è necessario ricorrere allo stampaggio, con preformatura su pressa idraulica e finitura sulla maxipressa. La sezione delle suole si sviluppa generalmente su tre piani inclinati da cui deriva la nascita di forze orizzontali molto pericolose per la vita degli stampi e dei portastampi. Nella versione originale si è disposta la figura della suola nel modo tradizionale, con il piano centrale parallelo al piano degli stampi. Tale soluzione origina nella realtà delle componenti orizzontali in grado di rompere le chiavette di fissaggio tra Fig. 20 – albero a gomiti – l’analisi degli stampi evidenzia i setti a rischio di flessione. Fig. 18 – suola per cingoli – la modifica dell’inclinazione del piano di sformo riduce dell’80% le tensioni tangenziali sugli stampi flessione dei setti tale da originare, dopo un certo numero di particolari stampati, una rottura per fatica dei setti stessi. Anche in questo caso la simulazione della deformazione degli stampi, come mostra la fig. 20, è in grado di evidenziare i setti soggetti a flessione ed il confronto tra diverse configurazioni, a parità di scala, consente di individuare quella più efficace. SIMULAZIONE DI PROCESSO PER OTTENERE COMPONENTI STAMPATI DI QUALITÀ mo a disposizione è in grado di produrre effettivamente il particolare, se la pressa lavora bilanciata e se gli sforzi sugli stampi non siano eccessivi. Alcuni risultati sono disponibili in Forge già con le analisi semplificate a stampi “rigidi”, mentre per risultati avanzati è necessario ricorrere all’analisi elastica degli stampi considerati deformabili durante lo stampaggio. A seguire vengono riportati alcuni esempi di valutazioni possibili mediante l’analisi dei risultati sugli stampi. 55 56 - Newsletter EnginSoft Year 8 n°2 Ottimizzazione automatica Ogni modifica che si apporta in fase di progettazione ha come fine quello di migliorare la qualità del particolare prodotto e minimizzare il materiale in eccesso. La metodologia tradizionale è basata sul trial-and-error e le prove vengono effettuate dopo aver lavorato gli stampi con delle campionature, che necessitano di fermi macchina e spesso delle revisioni anche pesanti degli stampi, fino al loro completo rifaci- camente la configurazione migliore di stampaggio. L’operatore definisce gli obiettivi dell’analisi ed i vincoli definendo un range di variabilità dei parametri utili al software per effettuare una prima serie di simulazioni. Le soluzioni dominanti con i risultati migliori in termini di obiettivi saranno i campioni favorevoli per la creazione di nuove generazioni, che si ottengono automaticamente attraverso algoritmi genetici, che convergono verso la soluzione ottimale ro- Fig. 21 – albero a gomiti – l’ottimizzazione consente un risparmio di materiale e preserva gli stampi. mento in alcuni casi. L’avvento della simulazione, utilizzata inizialmente per valutare a priori le singole operazioni di stampaggio o successivamente delle sequenze di operazioni, ha ridotto in modo sensibile le prove in macchina, ma ogni modifica nella configurazione o nei parametri di processo richiede sempre l’intervento diretto del progettista. Il software Forge ha introdotto recentemente uno strumento in grado di lasciare al programma il compito di individuare automati- La versione 2011 di Forge, il cui rilascio è previsto a giugno, vedrà implementate tutta una serie di migliorie nei modelli relativi ai vari processi produttivi ed ai risultati ottenibili con la simulazione, suggerite anche da EnginSoft e dagli utenti italiani: EnginSoft stessa ha curato la traduzione completa di Forge in italiano, una feature richiesta da molti utenti. Tra le principali novità che verranno introdotte la principale è però il “report manager”, in grado di generare in automatico un report di calcolo in formato MS Word, MS Powerpoint o HTML, mantenendo il template definito dall’utente e generando le pagine in base ai contenuti selezionati in fase di analisi dei risultati. Tale strumento consentirà quindi una drastica riduzione del tempo necessario alla produzione di documentazione, da archiviare poi per usi futuri. Continua inoltre lo sviluppo dell’ottimizzatore automatico di Forge, con esempi pratici di utilizzo anche nello specifico ambito dello stampaggio a caldo di acciaio. busta. In questa sede si vuole solo portare un esempio di ottimizzazione automatica di un particolare complesso quale uno degli alberi a gomiti descritti in precedenza (vedi fig. 21). Il processo si divide in tre operazioni: una rollatura iniziale, la cui geometria viene generata in Forge grazie al modulo descritto in precedenza, una sbozzatura ed una finitura (seguite da tranciatura e trattamento termico, che non sono state oggetto dell’ottimizzazione). Il tecnico ha indicato i range di variabilità del diametro maggiore della barra rollata e della sua lunghezza con l’obiettivo di minimizzare il volume necessario per ottenere il completo riempimento dell’impronta ed una assenza di ripieghe. Forge ha raggiunto l’obiettivo in soli 7 passaggi, consentendo una riduzione di peso da 160 Kg a 141 Kg, una riduzione del carico pressa in finitura del 20%, che localmente ha migliorato le condizioni di carico e di usura degli stampi allungandone notevolmente la vita utile. Le tecniche di ottimizzazione possono essere anche adottate per diversi scopi come ad esempio la calibrazione dei parametri del materiale mediante analisi inversa. Conclusioni La presente panoramica ha evidenziato come oggi sia possibile simulare tutte le operazioni necessarie alla produzione di un particolare in acciaio stampato a caldo in stampi chiusi, incluse le fasi di tranciatura e trattamento termico. I principali vantaggi dell’introduzione di Forge come strumento di riferimento per la progettazione dei processi di forgiatura a caldo di acciaio sono la possibilità di valutare a priori, a tendere ancora in fase di preventivazione, la realizzabilità di un particolare, minimizzando il materiale in bava. Con la simulazione si eliminano quasi completamente gli aggiustamenti necessari quando si mette a punto un nuovo pro- Newsletter EnginSoft Year 8 n°2 - L’acquisto del software Forge e il know-how che l’azienda acquisisce con la formazione specifica di EnginSoft costituiscono un vantaggio competitivo che ha immediate ricadute con- Dichiarazioni di utilizzatori di Forge nello stampaggio a caldo di acciaio in stampi chiusi FEAT GROUP L'introduzione di Forge in Feat risale al 2003, quando i test effettuati ci hanno convinto che questo tipo di software potesse aiutarci ad ottenere risparmi di materia prima e un approccio più metodico alla progettazione degli stampi con conseguente codifica del know-how aziendale acquisito. L'utilizzo delle simulazioni è diventato un passaggio d'uso comune ogni volta che vogliamo studiare una nuova famiglia di prodotto oppure re-ingegnerizzare uno stampato esistente. È ormai diventata una prassi per tutto lo staff tecnico, incontrarsi in sala corsi per potere analizzare e discutere in team le simulazioni sviluppate. Da soddisfazione vedere i responsabili di produzione essere oggi i primi a voler simulare prima di emettere una quotazione o definire un'attrezzatura. Riteniamo che Forge ci abbia aiutato ad ottenere benefici sensibili nei seguenti campi: riduzione sfrido, prevenzione problematiche di stampaggio, individuazione difettologie come mancato riempimento, cricche o ripieghe, analisi dell'andamento delle fibre, robotizzazione della movimentazione, vita stampi. Il beneficio più importante è stato quello di stimolare il lavoro di gruppo, con un linguaggio scientifico comune per integrare le varie competenze in soluzioni innovative. Il supporto di EnginSoft, attraverso l’assistenza telefonica ed affiancamenti dedicati, è fondamentale per essere aggiornati sui miglioramenti dello strumento e ci consente di applicarlo a problemi nuovi e sempre più complessi. crete sul miglioramento del proprio modo di produrre, consentendo un rapido ammortamento dell’investimento necessario. EnginSoft ha una esperienza di oltre 15 anni nell’utilizzo di Forge ed è in grado di ascoltare le più svariate esigenze provenienti dalle industrie e rispondere con delle soluzioni su misura, dai servizi alla formazione, base ed avanzata, all’uso del software, agli affiancamenti on-job. Per informazioni, rivolgersi a: Ing. Marcello Gabrielli – EnginSoft [email protected] RIGANTI L'uso di magli di medie-grandi dimensioni è una delle caratteristiche che distinguono il prodotto Riganti ed il software Forge è stato personalizzato ed implementato secondo le particolari necessità del processo di formatura con magli a contraccolpo e doppio effetto. Il continuo affinamento del programma ha reso i risultati delle simulazioni sempre più realistici, rendendo Forge insostituibile sia in fase di valutazione preventiva che nella fase di ottimizzazione. Possiamo dire che l'esperienza analitico-scientifica con Forge non sostituisce completamente la conoscenza pratica dell'esperto forgiatore, ma la affianca e la sostiene, dando logica e spiegazione ad un patrimonio quasi esoterico, frutto di tramandate conoscenze e di svariati anni di lavoro sul campo, legate però al singolo individuo e non al know-how aziendale. L'uso di Forge si è rivelato fondamentale nell'esame di fattibilità preventiva dando così modo alla parte commerciale di esplorare nuovi mercati e nuove tipologie di prodotto, con la sicurezza di soddisfare una fornitura, anche al limite delle possibilità produttive dei magli a disposizione. Forge si è dimostrato indispensabile sia per l'ottimizzazione di commesse ad elevato numero di pezzi, ma ancor di più per lotti di produzione con basso numero di particolari di grossa dimensione, per i quali non è fattibile una fase di prototipazione e per i quali un errore progettuale è inaccettabile, per il grosso dispendio economico e per i conseguenti ritardi nella consegna dei pezzi. Il dott. Marco Riganti ci ha detto: “Ho visitato la Transvalor nel 1999 per rendermi conto personalmente del livello tecnico di questa azienda e del suo software Forge, prima di deciderne l’acquisto. L’impressione di eccellenza che ne ricavai allora si è confermata negli anni e per questo continuo a sostenere l’importanza di questa scelta per il progresso della mia azienda. Il continuo lavoro di sviluppo del programma, a cura di Transvalor, e l'assistenza continua di EnginSoft nell’implementazione di progetti sempre più complessi, sono elemento essenziale per utilizzare quotidianamente questo strumento e trarne il massimo vantaggio”, dichiarano Dario Bressan, responsabile dell’Ufficio Tecnico, e Franco Cermisoni, l’utilizzatore del programma. SIMULAZIONE DI PROCESSO PER OTTENERE COMPONENTI STAMPATI DI QUALITÀ cesso, evitando i costi relativi alla lavorazione di stampi prototipo e i fermi macchina necessari per la campionatura. Se le simulazioni sono fatte a-posteriori, ogni modifica apportata agli stampi ed il relativo effetto sulla qualità del pezzo sono valutabili senza la necessità di costosi test fisici sotto la pressa. L’introduzione di Forge in ufficio tecnico consente infatti una profonda comprensione delle dinamiche di flusso del materiale tra gli stampi e delle criticità del proprio processo. Risolvere una problematica attraverso la simulazione consente ai tecnici di acquistare via via una maggiore sicurezza nell’affrontare famiglie di prodotti simili, ma anche di fare delle valutazioni, ancora in fase di preventivazione, delle criticità di nuovi particolari da produrre: tutte le esperienze fatte con il software possono infatti essere archiviate e diventano patrimonio dell’azienda, utile anche a far crescere rapidamente delle nuove figure che andranno via via ad integrare e poi sostituire le figure storiche esperte di stampaggio. 57 58 - Newsletter EnginSoft Year 8 n°2 GNUTTI CIRILLO Elevato standard qualitativo, orgogliosamente “Made in Italy” La Gnutti Cirillo S.p.A. azienda capogruppo di Gnutti Group situata a Lumezzane (Bs) e ad Odolo (Bs), nasce nel 1951 ed acquisisce negli anni la posizione di leader nel settore dello stampaggio a caldo dell’ottone, delle leghe speciali e delle lavorazioni meccaniche, con una batteria di 37 presse e 5 macchine automatiche Hatebur. Gli elevati standard tecnologici e qualitativi, il know-how maturato in oltre sessant’anni di esperienza, mettono in grado l’azienda di L’analisi dei contatti e le avanzate funzioni per l’individuazione e la tracciatura delle ripieghe hanno evidenziato con precisione i difetti riscontrati nella realtà. È stata quindi acquistata una prima licenza del programma con la quale i tecnici hanno seguito il corso base di formazione, a cura di EnginSoft, e sono iniziate le prime attività di simulazione. La facilità di utilizzo e la flessibilità dello strumento hanno consentito fin da subito di impostare configurazioni complesse con diversi punzoni, il cui movimento è stato legato alla discesa del pacco stampi contro il cuscino: configurazioni a forare e in campana sono state impostate senza difficoltà. I risultati ottenuti per i diversi casi affrontati hanno consentito di seguire passo-passo il flusso del materiale tra gli stampi, valutando i motivi delle ripieghe e suggerendo modifiche che hanno risolto “in virtuale” gran parte dei problemi riscontrati, eliminando le fasi di lavorazione degli stampi e di test in macchina: gli stampi e la sequenza di produzione sono stati deliberati solo una volta che questi problemi sono stati risolti con la simulazione Forge. rispondere adeguatamente a qualsiasi esigenza che può spaziare dall’elaborazione di un progetto specifico, alla realizzazione del più sofisticato dei prodotti, richiesto dalla clientela. Questo ha permesso alla Gnutti Cirillo S.p.a. di acquisire la posizione di leader europeo nelle lavorazioni dell’ottone OEM, con oltre 33.000 tonnellate di ottone forgiato ogni anno: si producono particolari da 10gr a 30kg. Perché EnginSoft e Forge in Gnutti Cirillo S.p.A.? L’esigenza di utilizzare un software di simulazione dello stampaggio quale Forge, è nata per affrontare con maggiore sicurezza particolari sempre più complicati e difficili da realizzare. La possibilità di prevedere i problemi e di risolverli a priori è stata giudicata uno strumento fondamentale per migliorare la fase di coprogettazione con il cliente e risparmiare nelle fasi di campionatura. La competenza e la professionalità mostrata dai tecnici di EnginSoft fin dai primi test sulla geometria campione è stata poi pienamente confermata durante il corso di formazione e negli affiancamenti: è importante poter contare su un supporto di qualità, che garantisca un aiuto nell’analisi dei risultati e nell’impostazione di casi non standard. L’utilizzo di Forge nella progettazione Origine della filiera produttiva sono la progettazione e la realizzazione direttamente negli stabilimenti di Lumezzane degli stampi, delle matrici di tranciatura e di tutte le attrezzature che sono utilizzate nelle successive fasi di lavorazione. L’elevata competenza tecnica permette di soddisfare qualsiasi richiesta, di realizzare prodotti dalla fase di progettazione fino alla produzione offrendo un completo supporto tecnico nel corso di questo processo (co-engineering). La necessità di rispondere con rapidità e precisione alle richieste anche più complesse dei propri clienti ha portato Gnutti Cirillo a valutare il software Forge per la simulazione del processo di forgiatura: un caso critico, che nella realtà produttiva mostrava delle mancanze e delle ripieghe è stato affidato ad EnginSoft, che l’ha impostato e risolto con Forge. Newsletter EnginSoft Year 8 n°2 - 59 Tohoku, the beauty of Japan *Tohoku means ”east-north”, the region comprises 6 prefectures: Aomori, Iwate, Miyagi, Akita, Yamagata and Fukushima which are located in the northeast of Japan’s main island. Iwate, Miyagi and Fukushima on the Pacific side have been the worst affected by the disaster of March 11, 2011. May 2011. It has been 2 months since the terrible earthquake disaster hit the east of Japan. It claimed the lives of many Fig.1 - Sunrise at Matsushima in Japanese people within moments. Miyagi Normally, we would think that 2 months later, rehabilitation and reconstruction activities would be moving forward. However, the truth is that a lot of problems have arisen concerning the reconstruction of Tohoku that has suffered 3 catastrophes: a major earthquake, a tsunami and a nuclear accident. More than 120,000 are forced to live as evacuees for a longer period of time. Far more people are in distress after having lost their families, homes and jobs. The disasters have also caused serious damage and problems to several industries including the agricultural and fishing sectors. Moreover, the manufacturing industries express their severe concerns about the consequences of the crisis because of the direct damage to their factories and the component supply chain, and the persisting electricity shortage. In this situation, I have been thinking about what I should convey to the readers of the Japan Column. Now, the Japanese are starting to think “We do what we can to the best of our ability” to help the people in the affected areas. This made me think that I should write about the beautiful Japanese culture. Beyond beauty, one of the topics of this Japan Column is time. I hope that that all our readers understand Japan in a deeper way and wish to visit us in the future. While I write I am praying for Tohoku. First of all, I would like to thank the EnginSoft Team and the readers of this Newsletter for caring about Japan and for their help. I can’t really express it in words, but like many Japanese people, I am very grateful for the support and prayers from around the world. I pray that the light of hope will reach all victims in Japan and all the people who suffer for different reasons in the world. Beautiful Tohoku --- Miyagi --Sendai in the Miyagi prefecture is the economical and political center of Tohoku with a population of more than 1 million people. It is a truly beautiful city surrounded by rich greenery and nature, such as the Hirose River and Mt. Aobayama. On the hills of Mt. Aobayama in eastern Sendai, there is the Sendai Castle ruin and the statue of Masamune Date, one of the most famous wartime military commanders and the 1st Sendai domain lord. His statue is standing there looking over the city. (Fig.2). Masamune was a diligent worker and very interested in foreign diplomacy. He dispatched an envoy to Spain and Rome and thus made an innovative diplomatic step forward in the Japan of 1613 which kicked-off the relationships between Sendai and Italy. Today, the Miyagi Prefecture and the Provincia di Roma are sister cities. Close to the Sendai castle ruin, the campus of the esteemed Tohoku University is based, which is renowned for its highest level educational programs in Natural Sciences. Ever since it was established in 1907, Tohoku University’s philosophy has been to put “Research First”. In recent years, it has ranked top among Japanese universities for the number of patents published and the leading technologies developed at the Campus, which contributed to the wealth and well-being of the community of Sendai. 20 km northeast of Sendai, we can find one of the three most scenic spots in Japan “Matsushima”. More than 260 big and small islands create the unique beautiful scenery (Fig.1). Matsushima is also a famous moon viewing Fig.2 - Statue of Masamune Date spot. It is believed that Albert EINSTEIN once said, "No great artisan could reproduce its beauty” when he visited Matsushima in 1922. Miyagi is the worst-hit area and Matsushima was also damaged heavily. However, several of the islands of Matsushima had weakened the Tsunami blow, which reduced the damage for the mainland, compared to other areas. Now, Matsushima has recovered and is ready to welcome visitors again. Matsushima and Sendai are very positive about the future and foster the reconstruction efforts in Tohoku. --- Fukushima --Unfortunately, Fukushima is now well-known because of the nuclear accident. However, please let us keep in mind that such facilities are often based in beautiful spots that are surrounded by nature. Fukushima is located in southern Tohoku, it spreads from the east, the Pacific side, to the west and the Sea of Japan. It is situated in the heart of nature, right in the middle of many national and natural parks, lovely places by the sea or by the shores of the Lakes Inawashiro and Goshikinuma (lit. five colored lakes) in the mountains. When we visit Aizu, the heavy snowfall area in the region, we can view different historic sites. Ouchi-jyuku in Minami Aizu is an important traditional building preservation area. It had been an important post station 60 - Newsletter EnginSoft Year 8 n°2 between Aizu and Kanto, the metropolitan area in the Edo period. It is famous for its numerous traditional thatched buildings from the old times that line up on its main street. Fig.3 - Ouchi-jyuku covered with snow The landscape varies depending on the season, but it always welcomes us with a special taste of the past. Ouchi-jyuku in particular has a calm and gentle atmosphere when it is covered with snow. There is a castle in Aizu-Wakamatsu city, north of Ouchi-jyuku, called Tsuruga-jyo (it is also known as Aizu-Wakamatsu-jyo). Aizu was the battlefield of the Aizu-war, one of the civil wars during the era when Japan transitioned from 265 years of continued Edo period to a modern state run by the Meiji government. The Aizu area was chosen as the center of the Shogunate power (the government of the Edo period). Back then, the young and the old were called to the battle to protect Tsurugajyo. Teenage boys of Fig.4 - Aizu Tsurugajyo Castle Samurai families were (reconstructed in 1965) also gathered as a backup force called Byakko-tai (lit. White tiger force). Byakko-tai are known for their tragic history because they killed themselves in the end with their swords, even though they knew that Tsurugajyo had not fallen yet. Their immense loyalty to their hometown and Bushido (the soul of the Samurai) have been passed down from generation to generation. --- Iwate --Iwate is the second largest prefecture after Hokkaido. Iwate’s beautiful landscape is surrounded by mountains, rivers, and lakes. The people in Iwate have coexisted with nature and its severity for a long time. It is the coldest area on the main island of Japan, where temperatures can fall to -30 degrees Celsius in winter. Many areas of the prefecture are hit by heavy snow in the winter months. Iwate has also suffered often from earthquakes and Fig.5 - Koiwai farm in Iwate in springtime Tsunamis. Please let me introduce you to a beautiful poem from Iwate… Ame nimo makezu by Kenji Miyazawa Unbeaten by rain Unbeaten by wind Unbowed by the snow and the summer heat Strong in body Free from greed Without any anger Always serene With a handful of brown rice a day Miso and a small amount of vegetables suffice Whatever happens Consider yourself last, always put others first Understand from your observation and experience Never lose sight of these things In the shadows of the pine groves in the fields Live modestly under a thatched roof In the east, if there is a sick child Go there and take care of the child In the west, if there is an exhausted mother Go there and relieve her from her burden In the south, if there is a man near death Go there and comfort him and tell him don’t be afraid In the north, if there is an argument and a legal dispute Go there and persuade them it’s not worth it In a drought, shed tears In a cold summer, carry on even with a sense of loss Being called a fool Being neither praised Nor a burden Such a person I want to be *This English translation refers to a reading at the memorial ceremony held at Washington National Cathedral on April 11, 2011. Kenji Miyazawa is a famous poet and author of children's literature. He was born in Iwate in 1896, 2 months later, the Meiji-Sanriku earthquake caused a terrible Tsunami and catastrophe in Tohoku. More than 20000 people had been killed. Since he was born, he had experienced repeated pains, such as earthquakes, Tsunami, typhoon and damages caused by cold summers. This is why he was worrying about natural disasters, always praying for everyone’s happiness. Kenji Miyazawa passed away in 1933, at the age of 37. He wrote this poem as a memo in his diary in his later years. It was found and published after his death. In the years after and still today, “Ame Nimo Makezu” is introduced in school books as one of Kenji’s best works, and both children and adults are familiar with his poem today. I realized the beauty of Tohoku again when writing this article. Its timeless beauty that touches us and that the Japanese people cherish so much, maybe lays in its warm words, the caring for others, humility, tact, thankfulness, and the strength from having overcome numerous natural disasters. I hope that beautiful Tohoku will recover very soon and that it will be able to welcome people from all over the world with its warm hospitality. Akiko Kondoh, Consultant for EnginSoft in Japan Newsletter EnginSoft Year 8 n°2 - 61 EnginSoft UK Key Partners with Cranfield University Supporting the EPSRC Centre for Innovation Manufacturing in Through-life Engineering Services to boost UK manufacturing industries The University of Cranfield and EnginSoft UK have worked closely together since the opening of the UK office. Sharing their passion for the automotive and aerospace industries, EnginSoft UK have offered their Fig. 1 - Turbine Engine expertise in the industry supporting a number of different Schools and Departments within, from the School of Engineering to the School of Applied Sciences. Renowned for being the only postgraduate institute in the UK, Cranfield University highly values the relevance of their research applied in the industry. EnginSoft UK has provided continuous support to Cranfield University, with support resources for research projects, and aid students in their career development. Cranfield University has since presented papers at the last two CAE Conferences. The long relationship with Cranfield University has seen EnginSoft hold Technical Seminars and Workshops at Cranfield, as well jointly collaborating in a 2 day Multi-Disciplinary Optimization Training Course. EnginSoft UK are pleased to announce they are now key industrial partners with Cranfield University in the Research and Development initiative for the EPSRC Centre for Innovation Manufacturing in Through-life Engineering Services. The aim of this new venture is to boost the UK manufacturing industries in delivering high value products at the lowest life cycle costs. Fig.3 - Research context for the EPSRC Centre EnginSoft contributes their applied optimization expertise to the partnership, as well as state-of-the-art technology software modeFRONTIER which has helped many companies save time and money during the design, manufacturing and distribution stages. For further information please visit: http://www.through-life-engineeringservices.org/through-life-eng.pdf Or Contact: Professor Rajkumar Roy Director Head of Manufacturing Department Cranfield University, UK Tel: +44 (0)1234 758335 Caren Vay Marketing, EnginSoft UK Ltd [email protected] Tel: +44(0)2476 997160 Fig. 2 - Harrier 62 - Newsletter EnginSoft Year 8 n°2 EnginSoft gained a new partner: M3E S.r.l., On 25th May 2011 EnginSoft gained a new partner, M3E S.r.l., a recently founded spin-off company of the University of Padua. M3E is an acronym: the letter M is taken to the power of three and stands for “Mathematical”, “Methods” and “Models”, while the E for “Engineering”. So, the complete title is: “Mathematical Methods and Models for Engineering”. The main goals of this new company are the development and distribution of numerical software packages in order to find an efficient solution to advanced problems in scientific computing, especially regarding linear algebra tools, optimization algorithms, and their application to several engineering problems. For its customers M3E provides not only software packages, but also maintenance and consultancy services, especially when dealing with problems related to surface and underground environmental processes, such as management of groundwater resources, exploitation of gas and oil from deep reservoirs, coupling between surface and subsurface flow, transport and diffusion of contaminants into freshwater aquifers, prediction of land subsidence phenomena and design of their possible mitigation. The expertise the new company applied in the applications described above is due to the international acknowledgement of the research carried out in the last two decades by the founding members. The founders of M3E S.r.l. are also members of the research group, which is headed by Professor Giuseppe Gambolati at the University of Padua. The research group also includes associate and assistant professors, as well as younger Geomechanical model of a deep gas reservoir post-doc students. Only over this last decade, the group has published over 200 papers in scientific peer-reviewed journals and collected few million Euro funds to invest in developing and implementing new numerical algorithms for an effective solution to several linear algebra problems, along with their application in engineering projects accounting for environmental surface and underground processes. The models coded by the founding members have been already used in high performance computing systems in a large amount of research studies, including projects funded by the European Union and the US Department of Energy. EnginSoft gives a warm welcome to M3E S.r.l. and is proud to have it as a member of its network. This partnership aims at attracting and connecting new actors which could take advantage of the services offered by the M3E expertise. The target is not only represented by a large public or private companies and agencies operating in the field of energy resources and the related environmental impact, but also small companies that need specific software tools which cannot be easily found in the universe of computer aided engineering. Furthermore, the advanced numerical algorithms provided by M3E, taking into account the latest achievements of numerical analyses, can be attractive also for a substantial improvement of the packages distributed by large and renowned software producers. For more information: [email protected] www.m3eweb.it Newsletter EnginSoft Year 8 n°2 - 63 FIAT: Storie di Innovazione Tecnologica nelle Automobili Pubblicato sul numero di marzo/aprile 2011 di "Ingegneria dell'Autoveicolo" Testo di Lorenzo Morello Edito da ATA – Associazione Tecnica dell’Automobile (www.ata.it) - marzo 2011, in 4° (21 x 29,7 cm), pagine XIII + 544, con sovracoperta stampata in bianca su carta patinata, con 480 figure, di cui 101 a colori, 73 tabelle, 51 citazioni bibliografiche e 55 modelli riportati con il periodo di produzione. ISBN 978-88-905815-1-9 € 120,00 Nel numero di maggio – giugno 2010 di “Ingegneria dell’Autoveicolo” era apparso nelle “Recensioni”, come “libro in preparazione”: “Evoluzione Tecnologica delle Automobili Fiat”, come titolo provvisorio. Ora, a marzo 2011, è stato pubblicato “FIAT - Storie di innovazione tecnologica nelle automobili”, un volume che inaugura una nuova serie nei prodotti editoriali di ATA, la “Collana Storica”, dedicata alla storia della tecnologia automobilistica. Con circa 600 pagine e dovizia di illustrazioni, dedicate ai principali modelli della casa, vengono descritte le innovazioni tecnologiche, che hanno trasformato per gradi successivi la prima vettura, la 4 HP, classificabile nella categoria degli “horseless carriage”, i carri senza cavalli, nelle moderne vetture, che tutti conosciamo, con scocca portante, trazione anteriore e sospensioni indipendenti, la cui nascita risale alle 128 e 127. Poiché la FIAT appartiene ad un ristretto gruppo di costruttori, caratterizzato dall’aver superato 110 anni di attività e dall’essere dotato, fin dalla fondazione, di tecnologia e know-how propri, la storia del suo prodotto può essere considerata, non solo in quanto tale, ma anche come guida abbastanza esauriente per interpretare l’evoluzione dell’automobile in termini generali. Le automobili del libro sono descritte attraverso le fotografie ufficiali dell’epoca della prima presentazione e quelle di esemplari sopravvissuti, realmente esistenti, che possono essere ancora oggi contemplati presso il Centro Storico FIAT ed il Museo dell’automobile (MAUTO), recentemente ampliati e restaurati, per la celebrazione dei 150 anni dell’Unità d’Italia. Ma ciò che rende unico il libro è la presentazione, per ogni modello, dei principali disegni tecnici, recuperati dall’Archivio storico e restaurati per l’occasione. In effetti, l’idea del libro è nata come conclusione del lavoro svolto dal progetto STAF (Studi Storici sulla Tecnologia delle Automobili FIAT), istituito per il recupero selettivo delle principali documentazioni tecniche sulle automobili FIAT. Tale progetto ha operato grazie ad un gruppo di tecnici volontari, dall’inizio del 2009 sino alla pubblicazione del libro, ed è consistito nella consultazione di quasi tutti i disegni tecnici (circa 1.500.000!), nella loro classificazione e nella selezione dei documenti principali: circa 1.300. Questi, scelti secondo la rilevanza del modello da essi descritto e la ricchezza di informazioni in essi contenute, sono stati acquisiti in formato digitale e restaurati grazie al contributo del Centro Ricerche FIAT, di ATA e di FIAT Group. Nei limiti del possibile, sono stati eliminati dalle copie digitali i danni del tempo, presenti sotto forma di pieghe, lacerazioni e macchie. La scelta dei modelli considerati nel libro è stata effettuata secondo criteri indipendenti: quello della rilevanza numerica, della produzione e quello dell’eccellenza tecnologica, includendo anche modelli di lusso e da competizione. I modelli sono stati raccolti in capitoli ispirati a tecnologie omogenee, con capisaldi comuni, declinati in automobili di dimensioni e segmenti di prezzo diversi. Il volume è diviso in due parti: la parte prima contempla i “Riferimenti storici” ed è divisa in 7 capitoli, che riguardano i principali componenti dell’automobile (motore, trasmissione, impianto elettrico, telaio e carrozzeria, sospensioni e sterzo, pneumatici). I 17 capitoli, dedicati alle automobili FIAT, contenuti nella seconda parte del libro, sono preceduti da una prima parte con 7 capitoli, dedicati alla descrizione delle prime automobili, comprendenti: la 4 HP e le sue numerose evoluzioni, la famiglia delle vetture Tipo, con la prima utilitaria, la Tipo 0 e le prime vetture da competizione e da record. I rimanenti capitoli spaziano dallo sviluppo della famiglia delle FIAT da Gran Premio dal 1921 al 1927, ai modelli più popolari in Italia. In particolare, si citano: • la Balilla, la Topolino, la 1400 e la 1100 103; • la 500, la 600 e la 850, serie di utilitarie a motore posteriore; • la 128 e la 127, prime vetture a trazione anteriore, con le quali termina il libro. Il termine tecnologico, riportato nel titolo, intende sottolineare che, nel descrivere le innovazioni introdotte, non si è considerata l’evoluzione del know-how tecnico progettuale, ma anche di quello tecnico-produttivo, il cui corretto sfruttamento è stato spesso origine del progresso in campo tecnico. Il libro è dedicato a tutti i progettisti della FIAT, in particolare a quelli che hanno ideato i modelli oggetto di presentazione, e può costituire una stimolante lettura anche per i tecnici e per gli appassionati dell’automobile, in generale. A cura di Giuseppe Righes Segretario Generale ATA 64 - Newsletter EnginSoft Year 8 n°2 Nuove pubblicazioni di NAFEMS La Nafems, “the International association for the engineering analysis community”, sostiene una collana di pubblicazioni particolarmente completa ed utile soprattutto a chi si occupa concretamente di applicazioni della simulazione all’ingegneria. La collana si è, recentemente, arricchita di due nuovi libretti. Il primo, “ WHAT IS a probabilistic or stochastic analysis?” funge da sommario rispetto all’argomento, trattato più estesamente in altre pubblicazioni, quali “ WHAY DO probabilistic analysis?” e “WHAT IS sensistivity analysis?”, e, comunque, nei documenti prodotti dal gruppo di lavoro • • • sull’analisi stocastica. Partendo dalla considerazione del problema del trattamento delle incertezze, e del rischio associato, viene precisata la differenza che esiste tra un approccio probabilistico ed un approccio stocastico. • Vengono, inoltre, indicati e sommariamente classificati i metodi che trattano dell’analisi dell’affidabilità, dal Metodo Montecarlo, agli ORM (Order Reliability Methods), mettendo in luce il valore che si può trarre da un’analisi di sensitività, e, soprattutto, da un’analisi di affidabilità (Reliability Analysis). Infine il libretto da indicazione delle direzioni di sviluppo dei metodi, nell’ottica dei software commerciali. • Il secondo libretto appartiene alla collana “HOW TO”, ed, in questo caso, suggerisce “HOW TO Analyse Practical Problems using FE Software”. Il libretto può essere considerato una guida all’impiego di software commerciali basati sul metodo degli elementi finiti, nell’ottica di realizzare modelli affidabili, e di evitare gli errori che possono derivare dall’impiego scorretto dei software stessi. Il libretto è diviso in sei capitoli, ciascuno dedicato ad un tema specifico, ed è corredato da otto casi di studio, che possono servire per apprendere – con riferimenti pratici – i ‘trucchi del mestiere’. I temi trattati riguardano: • la scelta dell’elemento finito più adatto al problema, ed i criteri per portare il modello a convergenza verso la soluzione compatibile con le scelte fatte, relativa- mente ad applicazioni mono, bi, tri-dimensionali e miste; l’applicazione delle condizioni al contorno, in situazioni non banali, illustrate sia attraverso esempi ricorrenti nella pratica quotidiana – quali quello della simulazione degli ingranaggi – che attraverso esempi ‘esotici’ – quali lo studio di cesoie per la regolarizzazione delle siepi -; la corretta gestione delle porzioni strutturali trattate come rigide, inclusi i problemi relativi alla connessione di sotto-sistemi trattati con elementi finiti tra loro incompatibili; applicazioni tipiche agli assemblaggi, alle giunzioni bullonate, alle connessioni tra porzioni simulate con elementi guscio, e porzioni simulate in 3D; il problema dei contatti , nelle varie forme in cui questi possono essere o sono descritti nei codici di calcolo commerciali (punto-punto, superficie-superficie); tecniche di iterazione del problema non-lineare; grandi deformazioni; determinazione delle pressioni di contatto; la simulazione dell’impatto ed il ‘drop test’, a partire dalla classificazione delle azioni dinamiche, delle corrispondenti equazioni del moto e modalità di soluzione; smorzamento; problemi relativi alla lettura ed interpretazione dei risultati; il trattamento delle simmetrie e delle a-simmetrie; simmetrie cicliche in presenza di carichi non-ciclici; applicazione agli assemblaggi; azioni dinamiche; trattamento delle non-linearità. La lettura di questi libretti è molto facile. E l’utilità – specie per chi si affaccia al calcolo numerico senza esperienze specifiche – notevole. Il principio seguito è quello espresso da Peter Drucker, il famoso guru dei manager: “Do the Right Thing first, The Thing Right afterwards”, in cui il concetto del fare “the right thing” esprime l’efficacia, e quello del fare “the thing right”, esprime l’efficienza. Quando si parla di elementi finiti, fare “the right thing” significa utilizzare il modello giusto, applicare le condizioni al contorno in modo congruente, e rappresentare adeguatamente la fisica del problema; fare the “thing right” significa affinare il modello, aggiungere quanto ne possa aumentare l’utilità, e facilitarne la lettura. Per informazioni: [email protected] www.nafems.org Newsletter EnginSoft Year 8 n°2 - 65 TechNet Alliance Spring Meeting 2011 29th – 30th April 2011 Hotel Barceló Asia Gardenz, Alicante - Spain During the last days of April, members of the TechNet Alliance and their invited guests met at the Hotel Barceló Asia Gardens in Alicante, in Southern Spain. As always, the TechNet Alliance had selected a charming venue that underlined the good spirit, positive outlook and the promising future projects of the Alliance. The meeting saw a high attendance; it was organized and hosted in the typical TechNet Alliance style: attention to detail, a high quality agenda, excellent speakers from around the globe and different fields - a format that has proven to be successful since the late 90s. The TechNet Alliance is a unique consortium in the Computer Aided Engineering (CAE) or Simulation Based Engineering Sciences industry. It is comprised of a large network of engineering solution providers, dedicated to the application, development, training, support and marketing of CAE best-of-class software. Today, the global alliance comprises more than 2500 CAE employees in 56 companies, 25 countries, communicating in 20 languages. The management of EnginSoft is on the board of the TechNet Alliance and attends the bi-annual meetings, often presentations are contributed to the agenda. At the 2011 Spring Meeting, potential synergies between ANSYS and the Alliance were discussed. Several ideas came up including the possible sponsorship of a project in the training and educational sector which may involve the TCN Consortium and esocaet. During the talks, the EnginSoft Management suggested that ANSYS should take the lead in organizing 1-day events, possibly workshops, at which a selected number of TechNet Alliance Members would promote the ANSYS proposals and technologies by illustrating specific advanced case histories. In this way, the TechNet Alliance concept and the ANSYS brand would be supported simultaneously. The presentations, that were delivered on Saturday 30th April in Alicante, covered such interesting topics and talks as: o the use of Social Media to help promoting the TechNet Alliance on a global level; o a Material Database for ANSYS 13.0; o potential new Charter Members. EnginSoft had suggested Flowmaster, and Morgan Jenkins of Flowmaster UK, gave a lively presentation based on the tuning of a Ferrari Dreamcar engine. Further presentations were contributed by organizations from the USA and Spain; o Representatives from the Polytechnic University of Madrid and UNED in Spain were welcomed as potential Honorary Members. The presentations of TechNet Alliance Members included: o Dynardo’s description of their ANSYS RDO implementation; o InuTech and FTT and the upgrade of their technologies and product portfolios; o Ingeciber Spain presented a series of convincing applications in the fields of hydraulics and environmental applications of CFD; o EnginSoft continued the series of presentations on metal processing. The aim here is also to develop a comprehensive documentation for this area of EnginSoft’s expertise. This time the topic was forgingmetal forming. It built on the previous presentation at the TechNet Alliance Fall Meeting 2010 in Aachen, Germany, which had been focused on casting. In the future, machining, heat treatments, databases, thermal fatigue will be outlined as further topics; o The new design of the TechNet Alliance Website was discussed. This is an important activity to most members as it will further strengthen the brand of the Alliance and provide a window to promote their specific competencies. The Spring Meeting 2011 was another excellent networking occasion for the attendees. It underlined once more the validity of the working model of the TechNet Alliance and its bi-annual Meetings at alternating venues in Europe. Stefano Odorizzi, CEO of EnginSoft EnginSoft is a Member of the TechNet Alliance since 2003 For more information on the TechNet Alliance, please visit: www.technet-alliance.com and contact Mrs Kristin Schuhegger at: [email protected] 66 - Newsletter EnginSoft Year 8 n°2 La piattaforma SW Benimpact Suite di Enginsoft premiata alla mostraconcorso Fare Green È giunta alla seconda edizione la mostra-concorso Fare Green, organizzata nell’ambito del Festival dell’Economia di Trento 2011 “I confini della libertà economica”. Quest’anno “Fare Green. Saperi e pratiche sostenibili per nuovi modelli di sviluppo consapevole” ha selezionato e presentato le migliori proposte delle imprese e dei professionisti trentini in termini di progetti, prodotti e servizi ad alto livello di sostenibilità ambientale. Tra 40 candidati, ne son stati selezionati 9 per l’esposizione presso palazzo Roccabruna a Trento dal 2 al 19 giugno; tra questi ultimi sono stati scelti i vincitori, proclamati poi il 15 giugno. EnginSoft si è aggiudicata il Premio Comune di Trento, consegnato dall'Assessore all'Ambiente e alla Mobilità Michelangelo Marchesi, grazie alle potenzialità per il settore delle costruzioni del progetto "Benimpact Suite. Piattaforma software per la progettazione di edifici ecosostenibili". Mostra-concorso Fare Green Fare Green è una mostra-concorso dell’eccellenza green trentina che prevede la selezione su base concorso e l’esposizione di progetti, servizi e prodotti caratterizzati da un elevato livello di sostenibilità ambientale. Nell’edizione di quest’anno, in sintonia con la tematica scelta per il Festival dell’Economia di Trento “I confini della libertà economica”, i criteri di selezione erano basati sul concetto di sostenibilità piena così come definito dal “Framework per lo Sviluppo Sostenibile e Strategico” (http://en.wikipedia.org/wiki/ Strategic_Sustainable_Development) Valorizzazione del territorio e risparmio energetico, social housing, benessere della persona, modelli economici innovativi, gestione etica produttiva delle piccole aziende agricole, progettazione integrata di edifici ecosostenibili, case in legno, mobilità alternativa: questi le migliori proposte selezionate dal Comitato di Valutazione presieduto da Eric Ezechieli (Presidente di The Natural Step Italia) e composto da Thomas Miorin (Direttore di Habitech), Roberto Cariani (Ambiente Italia) e Luca Bertamini (Aquafil), rappresentante della società vincitrice del primo premio della scorsa edizione. Foto: ©Hugo Munoz - tutti i diritti riservati. La mostra è stata organizzata da Habitech, il Distretto tecnologico trentino, in partnership con Trentino Sviluppo ed il Comune di Trento. Festival dell’Economia 2011 a Trento Il Festival dell’Economia di Trento si pone l’obiettivo di far avvicinare il pubblico ai grandi esperti di economia a livello internazionale e di sensibilizzarlo su questioni d’attualità e di fondamentale importanza. Giunto quest’anno alla sesta edizione, il Festival propone ogni anno una tematica sulla quale si concentrano tutti i dibattiti e le iniziative. Le prime cinque edizioni hanno affrontato le seguenti tematiche: “Ricchezza e Povertà”, “Capitale umano e capitale sociale”, “Mercato e democrazia”, “Identità e crisi globale”, “Informazioni, scelte, sviluppo”. L’edizione di quest’anno, dal titolo “I confini della libertà economica”, si è posta l’obiettivo di permettere al pubblico di farsi un'idea sulle questioni complesse che definiscono i nuovi confini alla libera iniziativa privata che vengono posti in essere in diverse parti del pianeta. La manifestazione trentina in parallelo al consueto format di dibattiti con economisti, sociologi, filosofi, imprenditori, giornalisti di primissimo livello (tra di essi, solo per citarne alcuni, l’economista premio Nobel Amartya Sen che ha pronunciato una lectio magistralis come apertura del Festival e il sociologo Zygmunt Bauman che, introdotto dall’editore Giuseppe Laterza, ha chiuso la kermesse) ha incluso numerose attività che andavano da spettacoli cinematografici e teatrali, ad esposizioni d’arte visiva, da laboratori sul riciclo per adulti e bambini a mostre-concorso su progetti, servizi e prodotti sostenibili come Fare Green. Newsletter EnginSoft Year 8 n°2 - Benimpact Suite: piattaforma software per la progettazione integrata di edifici ecosostenibili La domanda di energia dell’Unione Europea è dovuta per il 41% alle attività di costruzione, utilizzo, mantenimento e “dismissione” degli edifici residenziali e commerciali. Alla luce di questi dati concepire, progettare e realizzare edifici a ridotto impatto ambientale complessivo è ormai diventata un’esigenza non più rimandabile. Una diffusione estensiva di queste costruzioni potrà però avvenire soltanto se queste si dimostreranno economicamente sostenibili o, ancora meglio, economicamente più vantaggiose degli edifici attuali. Sostenibilità “piena” per un edificio vuol dire soddisfacimento dei bisogni (sicurezza, comfort ed estetica) delle persone che ci vivono o lavorano, massima indipendenza energetica e ridotto impatto ambientale complessivo (risorse naturali, materiali, emissioni durante il suo ciclo vita). Ed il tutto tenendo conto della sostenibilità economica, vera chiave per uno sviluppo estensivo di queste tipologie di costruzioni. Per raggiungere questi obiettivi, molte volte contrastanti tra loro, occorre cambiare il modo attuale di progettare gli edifici, mutuando quanto già si fa nella progettazione di manufatti industriali. Una casa “passiva” deve essere progettata come un sofisticato macchinario, utilizzando strumenti software e metodologie di progetto idonee a cogliere ed integrare tutte le opportunità offerte dai materiali e dalle tecnologie: BENIMPACT Suite è una risposta a questa esigenza. Si tratta, infatti, di una piattaforma software che permette di verificare come diverse combinazioni di scelte 67 progettuali (inerenti l’involucro, gli impianti, e l’utilizzo di energie rinnovabili) influenzano i livelli prestazionali (verso gli occupanti e verso l’ambiente esterno) di un edificio. Il tutto è pilotato da un sistema software che individua anche le soluzioni “ottime”, cioé quelle che garantiscono il miglior compromesso tra consumi energetici, impatto ambientale globale e costi per l’intero ciclo di vita dell’edificio. BENIMPACT Suite, una volta l’industrializzazione, potrà essere efficacemente utilizzata da professionisti operanti in ambiti quali: studi di architettura e di ingegneria, società di costruzioni, imprese di installazione di sistemi ed impianti, aziende di gestione dell’edilizia abitativa e società di servizi energetici. completatane Il prototipo della piattaforma software è stato sviluppato nell’ambito del Progetto di Ricerca “BENIMPACT – Buildings ENviromental IMPACT evaluator & optimizer” cofinanziato dalla Provincia Autonoma di Trento utilizzando risorse del Programma Operativo FESR 2007-2013. www.benimpact.it http://www.enginsoft.it/ricerca/prgbenimpact.html Per maggiori informazioni: Ing. Angelo Messina - EnginSoft [email protected] 68 - Newsletter EnginSoft Year 8 n°2 EnginSoft France Presents Flowmaster V7.8 Aerospace and modeFRONTIER V4.4 to the Aerospace Industries EnginSoft France is pleased to showcase its flagship products modeFRONTIER™ V4.4 and Flowmaster™ V7.8, and to introduce charLES in Hall 4 (stand 4-E132) at this year’s International Paris Air Show in Le Bourget. modeFRONTIER is a multiobjective design optimization software produced by ESTECO - EnginSoft Tecnologie per l’Ottimizzazione Srl Trieste – Italy, widely and increasingly used in the aerospace industries as an efficient, state-of-theart optimizer. modeFRONTIER allows easy coupling to virtually any CAE package available today, and in particular to the CFD commercial codes commonly applied in the aerospace and defense sector. Among the key features of modeFRONTIER are statistical analysis and data mining tools, wizards for the creation of meta-models, and special tools to enhance the navigation between different programs and many more. In fact, modeFRONTIER v4.4 also provides the new hybrid algorithm, new integration capabilities and an update of the new embedded GRID system. The Flowmaster Group with its Headquarters in the United Kingdom has over 18 years experience providing industry leading fluid systems simulation software to the aerospace and other industrial sectors. Flowmaster V7.8 Aerospace helps design engineers to efficiently design and simulate aircraft fluid systems. Flowmaster’s industry tailored modeling tools, advanced security and team collaboration tools enable key aerospace organizations worldwide to evaluate system designs earlier and to reduce development costs, optimize performances and track system design changes throughout development processes and lifecycles of aircraft. In particular, venting system modeling or inerting simulations have never been so fast and easy. charLES is a Large Eddy Simulation (LES) software package, representing simply the latest, most advanced generation of flow simulation technology for industrial applications. The numerical schemes embedded in charLES provide representation of turbulent fluctuations without introducing any artificial damping, thus allowing high fidelity results for aeroacoustic, combustion, multiphase complex flows. charLES is produced by Cascade Technologies which is a spinoff of Stanford University headed by professor Parvis Moin (also responsible of the Centre for Turbulence Research). Cascade Technologies is a partner company of EnginSoft holding. EnginSoft started business operations in France in 2006 to market modeFRONTIER and support its users in the Frenchspeaking market. Since February 2009 – under the new partnership agreement signed with Flowmaster France EnginSoft France is also responsibility for the sales distribution and support of the Flowmaster software products in Southern Europe: France, Italy, Spain. In March 2011, a global agreement between EnginSoft and Flowmaster extended this partnership to all Flowmaster customers. “The International Paris Air Show will see EnginSoft France showcasing modeFRONTIER, Flowmaster and charLES, three best-in-class simulation software products, tailored for aerospace experts”, emphasized Marie Christine Oghly, President of EnginSoft France. For more information, please contact: Marie Christine Oghly, President of EnginSoft France [email protected] For more information on the internet, please visit: • EnginSoft France – www.enginsoft-fr.com • Flowmaster – www.flowmaster.com • modeFRONTIER – www.esteco.com • EnginSoft International – www.enginsoft.com Newsletter EnginSoft Year 8 n°2 - 69 Grande successo di WTT 2011 La seconda giornata del Wind Turbine Technology Forum 2011 ha evidenziato come sia sempre più importante migliorare l’approccio alla progettazione delle turbine eoliche. organizzatrice - WTT è destinato, quindi, a diventare un appuntamento fisso per tutti gli operatori di questo settore in forte evoluzione. Venezia, 13 maggio 2011 - In fase di progettazione di turbine a vento un approccio che si proponga diversi obiettivi può essere molto importante per aiutare gli ingegneri a evitare l'errore di dare priorità direttamente al prodotto, piuttosto che all'intero processo. Anche se questo è purtroppo un problema diffuso, è ormai chiaro che qualsiasi fattore che accorcia i tempi della ricerca, dei test e del processo di progettazione e di produzione, avrà un impatto importante sulla qualità globale. Questo è quanto è stato dichiarato da Silvia Poles di EnginSoft, in occasione della seconda e conclusiva giornata WTT - Wind Turbine Technology Forum 2011, la prima conferenza nel Mediterraneo esclusivamente dedicata alla filiera manifatturiera delle turbine eoliche, che si è svolta nel Centro Congressi dell’Arsenale di Venezia. Secondo quanto ha affermato Silvia Poles, è necessario prendere in considerazione, in un’unica ottica di ottimizzazione, tutte le discipline e i parametri che intervengono nel processo di progettazione delle turbine, in particolar modo l'uso di algoritmi evolutivi come l’algoritmo genetico multiobiettivo. Sarebbe inoltre preferibile utilizzare un metodo di interpolazione intelligente per avvicinarsi al miglior risultato possibile. Abbiamo analizzato la strategia di controllo più adatta per piccole turbine eoliche in siti a bassa ventosità e per quantificare i vantaggi reali (in termini di ROI) derivanti dall'adozione di sistemi di controllo e funzionamento a velocità variabile - ha spiegato Lorenzo Battisti dell’Università di Trento. Nella ricerca sono stati analizzati i vantaggi economici previsti dall’aumento del diametro del rotore e, quindi, della superficie di ingombro. I risultati preliminari hanno dimostrato l'efficacia economica della progettazione di turbine eoliche con dischi più grandi, una strategia valida per migliorare la produzione di energia, con piccoli costi aggiuntivi, in siti a bassa ventosità. Lorenzo Bianco di Peikko, infine, ha presentato la nuova soluzione Eco per la protezione contro la corrosione delle turbine. Anche la pericolosa caratteristica della fragilità da idrogeno è stata sottoposta a ricerca. La fragilità da idrogeno è il processo attraverso il quale diversi metalli, soprattutto in acciaio ad alta resistenza (come l'acciaio utilizzato per l'ancoraggio delle torri delle turbine del vento) diventano fragili e possono rompersi in seguito all'esposizione a idrogeno. Questo è spesso il risultato dell’introduzione accidentale di idrogeno in metalli sensibili, ad esempio durante le operazioni di finitura ad alte temperature. Con Eco, abbinato all’utilizzo di bulloni ad alta resistenza, il problema è ora superato. Siamo molto soddisfatti di questa prima edizione di WTT, che ha dimostrato di rispondere a un’esigenza di confronto e aggiornamento professionale molto diffusa in tutta la filiera manifatturiera delle turbine eoliche - ha dichiarato Marco Pinetti, presidente di Artenergy Publishing, la società L’appuntamento con la prossima edizione di WTT - Wind Turbine Technology Forum è a maggio 2012. Ulteriori informazioni su WTT 2011 sono disponibili nel sito www.windforum.pro http://www.windforum.pro/ Il “Forge Italian Team” è presente a Cannes per lo Users’ Meeting 2011 di Transvalor Cannes, 6-7 giugno 2011 Una nutrita rappresentativa di utenti italiani ha preso parte ai primi di giugno alla Conferenza Internazionale degli utilizzatori del software Forge, che ha visto la presenza di oltre un centinaio di persone nella splendida cornice di Cannes, Costa Azzurra. EnginSoft, distributore in esclusiva dei prodotti di Transvalor per l’Italia, è stata pubblicamente elogiata da Marc Antonicelli, general manager di Transvalor, per gli eccellenti risultati di vendita ottenuti nel 2010 e per la continua e proficua collaborazione, che dura ormai da 15 anni. Nelle sessioni tecniche è stata presentata la release 2011 del software FORGE, ormai rilasciata, che migliora in modo significativo l’efficienza del lavoro di preparazione ed analisi dei risultati (una release notes completa verrà pubblicata nel prossimo numero della newsletter). Durante la serata di gala gli ospiti hanno avuto la possibilità di cimentarsi in una sfida tra i tavoli alla rolulette ed al blackjack, nella quale però l’”Italian Team” non ha avuto molta fortuna. Come di consueto, EnginSoft da appuntamento a tutti gli interessati il 21 ottobre a Verona, dove all’interno della International CAE Conference 2011 (www.caeconference.com) sarà organizzata una sessione dedicata, il “Forge Users’ Meeting Italiano”, nel quale verranno riassunte le novità dell’ultima release e sarà inoltre possibile assistere alle presentazioni di alcuni utilizzatori italiani. 70 - Newsletter EnginSoft Year 8 n°2 EnginSoft Event Calendar ITALY EnginSoft is pleased to announce the next Seminars and Webinars. For more information, please contact: [email protected] Please visit www.enginsoft.com (Events) 19 July - Seminario Presso la Magneti Marelli di Bologna Come essere competitivi con l'utilizzo della simulazione Seminar: How to stay competitive by using simulation! sedi/venue: Magneti Marelli, Bologna 20-21 October - EnginSoft International Conference 2011 CAE Technologies for Industry and ANSYS Italian Conference Fiera Verona. Please stay tuned to www.caeconference.com for Italy’s premier conference on Engineering Simulation and one of the most important events of its kind globally! The conference program will feature applications of CAE in: mechanics, industrial applications, structural engineering, optimization, manufacturing process simulation, computational fluid dynamics, emerging technologies, durability and fatigue, rapid and impact dynamics, CAD/CAE integration, … FRANCE EnginSoft France 2011 Journées porte ouverte dans nos locaux à Paris et dans d’autres villes de France, en collaboration avec nos partenaires. Pour plus d'information visitez: www.enginsoft-fr.com, contactez: [email protected] 20-26 June - Salon du Le Bourget - Paris Air Show Le Bourget, Paris Talk to our experts at the EnginSoft / Flowmaster booth! http://www.paris-air-show.com/en 28-29 June – Teratec Conference Ecole Polytechnique Palaiseau Meet us at the EnginSoft / Flowmaster booth! http://www.enginsoft-fr.com/events/index.html 12 October - User Group Meeting modeFRONTIER France Paris. http://www.enginsoft-fr.com/events/index.html 13 October - User Group Meeting Flowmaster France Paris. http://www.enginsoft-fr.com/events/index.html GERMANY Please stay tuned to: www.enginsoft-de.com Contact: [email protected] for more information. modeFRONTIER Seminars 2011 EnginSoft GmbH, Frankfurt am Main Attend our regular Webinars and Seminars to learn more on how design optimization with modeFRONTIER can enhance your product development processes! Seminars Process Product Integration. EnginSoft GmbH, Frankfurt am Main. How to innovate and improve your production processes! Seminars hosted by EnginSoft Germany and EnginSoft Italy SPAIN Programa de cursos de modeFRONTIER and other local events Please contact our partner, APERIO Tecnología: [email protected] Stay tuned to: www.aperiotec.es 21-30 June ESAComp eTraining Introduction to Design of Composite Structures with ESAComp Software. Web-based training course Componeering offers an e-learning course for composite structures design with ESAComp software. Web-based training is an effective and cost-efficient way to get started with the use of ESAComp. Live training can be followed without leaving the desk. For more information, please contact: Juan Lorenzo, [email protected] SWEDEN 2011 Training Courses on modeFRONTIER - Drive your designs from good to GREAT. EnginSoft Nordic office in Lund, Sweden The Training Courses are focused on optimization, both multi- and single-objective, process automation and interpretation of results. Participants will learn different optimization strategies in order to complete a project within a specified time and simulation budget. Other topics, such as design of experiments, meta modeling and robust design are introduced, as well. The two day training consists of a mix of theoretical sessions and workshops. • 11-12 August • 5-6 September • 4-5 October • 2-3 November • 1-2 December To discuss your needs, for more information and to register, please contact EnginSoft Nordic: [email protected] Newsletter EnginSoft Year 8 n°2 - UK The workshops are designed to give delegates a good appreciation of the functionality, application and benefits of modeFRONTIER. The workshops include an informal blend of presentation plus ‘hands-on’ examples with the objective of enabling delegates to be confident to evaluate modeFRONTIER for their applications using a trial license at no cost. modeFRONTIER Workshops Warwick Digital Laboratory, Warwick University • 17 August • 14 September • 13 October • 22 November • 14 December modeFRONTIER Workshops Warwick Digital Laboratory • 20 July • 9 November with InfoWorks Please register for free on www.enginsoft-uk.com Multi-Disciplinary Optimisation Training International Digital Lab, Warwick University • 16-17 May • 6-7 September CS Course For more information and to register, please visit www.enginsoft-uk.com Contact: Bipin Patel, [email protected] 14-16 July – GECCO 2011 Genetic and Evolutionary Computation Conference. Dublin, Ireland EnginSoft will be presenting on 15 July http://www.sigevo.org/gecco-2011/ecp.html USA Courses and Webinars on Design Optimization with modeFRONTIER.Sunnyvale, CA For more information, please contact: [email protected] www.ozeninc.com EUROPE, VARIOUS LOCATIONS modeFRONTIER Academic Training Please note: These Courses are for Academic users only. The Courses provide Academic Specialists with the fastest route to being fully proficient and productive in the use of modeFRONTIER for their research activities. The courses combine modeFRONTIER Fundamentals and Advanced Optimization Techniques. For more information, please contact Rita Podzuna, [email protected] To meet with EnginSoft at any of the above events, please contact us: [email protected] 71 12th International Summer School on Aluminum Alloy Technology Light Alloys Casting: from Innovative Design to Advanced Application - 25th-29th July – Vicenza The 2011 International Summer School is a joint effort among NTNU (Norway), WPI (USA) and DTG (Italy). The school has previously been offered in Trondheim, Norway and Worcester, USA. Topics concerning light alloys solidification and processing have been traditionally debated during Summer School, but this year the focus will be on the path to be followed from innovative design to advanced applications in order to make light alloys castings suitable to sustain the challenges of product reliability, industrial competitiveness and technological sustainability. As demonstrated by recent Integrated Research Projects, such challenges require, from light alloys casting industry, innovative and integrated approaches based on: • metallurgy fundamentals; • process modeling and simulation; • knowledge of conventional and innovative treatments and processing solutions; • availability of advanced criteria and tools for casting and component design. The Panel of Lecturers is very qualified, and includes Diran Apelian, MPI, Worcester Polytechnic Institute, USA Lars Arnberg, NTNU, University of Trondheim, Norway Franco Bonollo, DTG, University of Padova, Italy Diego Cacciatore, Automobili Lamborghini S.p.A Arne Dahle, University of Queensland, Australia Paolo Ferro, DTG, University of Padova, Italy Alois Franke, Aluminium Rheinfelden, Germany Nicola Gramegna, EnginSoft, Padova, Italy Lindsay Greer, Cambridge University, UK Karl Kainer, GKSS Forschungszentrum Geesthacht, Germany Lothar Kallien, GTA, University of Applied Science, Aalen, Germany John Jorstad, JLJ Technologies, USA Claudio Mus, Consultant, Italy Rodney Riek, Harley-Davidson Motor Company Giulio Timelli, DTG, University of Padova, Italy David Weiss, Eck Industries, USA The School will be held at the Department of Management and Engineering in Vicenza (DTG, www.gest.unipd.it), a town in the North-East of Italy (30 min by train from Venice, less than 2 hours by train from Milan). For further information, visit: http://static.gest.unipd.it/iss12/home.html ® ENGINSOFT INTERNATIONAL CONFERENCE 2011 CAE TECHNOLOGIES FOR INDUSTRY ANSYS ITALIAN CONFERENCE 2011 ing m o c s t n e v e Two major ificant n ig s t s o m e h dar n together for t le a C E A C n he Italia t in n io s a c c o VERONA -IT 20-21 OCTOBER www.caeconference.com GOLD SPONSORS ®