In today’s rapidly evolving digital environment, organisations must continuously evolve their Data Governance practices to stay ahead and remain competitive. The explosion of data and the rise of transformative technologies such as AI and machine learning are reshaping the landscape, demanding adaptive and changing approaches to Data Governance. Join Nicola as she shares invaluable insights from her extensive Data Governance journey to date. Learn how organisations can transform their frameworks and strategies to not only address emerging challenges but also harness the full potential of data in this rapidly changing environment.
In een tijd waarin data en kunstmatige intelligentie een centrale rol innemen in bedrijfsstrategieën, is het cruciaal om niet alleen de nieuwe mogelijkheden, maar ook de nieuwste Europese wetgeving op dit gebied te begrijpen. Deze sessie biedt een boeiende en toegankelijke blik op de drie meest invloedrijke Europese wetten van dit moment: de AI Act, de Data Governance Act en de Data Act. Wat betekenen deze wetten voor uw organisatie, en hoe kunt u innovatie stimuleren terwijl u voldoet aan complexe wettelijke eisen? Met een unieke combinatie van technische en juridische expertise worden de belangrijkste onderdelen van deze wetten toegelicht, met daarbij praktische inzichten om organisaties toekomstbestendig te maken. U kunt rekenen op een informatieve sessie vol concrete tips, valkuilen en praktijkvoorbeelden.
Data engineers zijn schaars, maar stel je voor dat je met Gen-AI zelf een data warehouse kunt bouwen! Victor de Graaff, oprichter van D-Data, zal in deze inspirerende sessie laten zien hoe het mogelijk is om zonder diepgaande technische kennis in slechts 45 minuten een compleet datawarehouse op te zetten, te vullen en er een BI-dashboard bij te maken.
Victor demonstreert dit proces met behulp van openbare APIs en Gen-AI, waarbij hij de kracht van automatisering en kunstmatige intelligentie inzet. In deze showcase staan Azure en ChatGPT hem bij als ‘digitale assistenten’, en maken ze het onmogelijke mogelijk.
Door Gen-AI-gegenereerde code te gebruiken, zullen we:
Deze sessie laat zien dat zelfs specialistische taken, zoals het bouwen van datawarehouses, bereikbaar zijn voor een breder publiek dankzij Gen-AI. Bereid je voor om “in awe” te zijn en ontdek de toekomst van BI en data-engineering met kunstmatige intelligentie!
Lees minderIn zijn LinkedIn-artikel ‘Data is dood’ gooide Wouter van Aerle de knuppel in het hoenderhok: veel organisaties managen hun data op een manier die structureel tekortschiet. Denk bijvoorbeeld aan een gebrek aan duidelijke verantwoordelijkheden, een te technologische benadering of het ontbreken van een strategische visie op het gebruik van data. Hierdoor stranden ambities om ‘data-gedreven’ te worden vaak voordat ze goed en wel van de grond komen.
Wouter biedt een blik vooruit: hoe doorbreken organisaties vastgeroeste patronen in datamanagement, welke fundamentele veranderingen zijn daarvoor nodig en welke eerste stappen kunnen ze direct zetten.
Tijdens deze sessie komen de volgende onderwerpen aan bod:
Onze dataprocessen en -systemen worden steeds complexer en dynamischer. Veel bedrijven hebben moeite met het op peil houden van de datakwaliteit en het vergroten van het vertrouwen in het datalandschap.
Testen biedt inzicht in risico’s en kwaliteit van de data, de systemen en de datastromen. Het onderzoekt bijvoorbeeld de prestaties, de data-integriteit en de bedrijfslogica. Veel meer dan het vinden van problemen en bugs gaat het bij testen om het bieden en opbouwen van vertrouwen voor eindgebruikers in de oplossing die wordt gebouwd. Testen zou daarom een cruciaal onderdeel moeten zijn van elke business intelligence- en data omgeving.
In deze lezing gaat Suzanne in op testkennis gericht op data omgevingen met behulp van TMAP en het VOICE-model. Ze zal ingaan op de DAMA-kwaliteitskenmerken die je kunt overnemen en je aanmoedigen om het niveau van vertrouwen in de kwaliteit van uw systemen en gegevens te communiceren. Krijg inzicht en tips over het testen van BI- & Data-oplossingen.
Belangrijkste punten:
Hoe kun je data echt inzetten als bedrijfsmiddel? We verkennen de centrale pijler van Data Mesh: Federated Computational Data Governance. Krijg inzicht in het structureren van datateams om zowel centraal als lokaal aan uw behoeften te voldoen en leer hoe federated data governance kan zorgen voor verantwoording in de hele organisatie. We gaan in op een aantal uitdagingen op het gebied van data governance met betrekking tot dataproducten en het opstellen van datacontracten om de verwachtingen en verantwoordelijkheden van alle teams op elkaar af te stemmen.
Onderwerpen en discussiepunten:
Erasmus Universiteit en TU-Delft hebben in 2023 de krachten gebundeld om een nieuw tijdperk van onderzoekssamenwerking in te luiden met een innovatief platform voor het delen van (open) data. Gebouwd op de pijlers van gebruiksgemak, robuuste beveiliging en moderne infrastructuur maakt dit platform het delen en ontdekken van onderzoeksgegevens een fluitje van een cent. Onderzoekers profiteren van intuïtief databeheer met geautomatiseerde Digital Object Identifier (DOI) toekenning, terwijl geavanceerde beveiliging zorgt voor AVG-compliance zonder de toegankelijkheid in gevaar te brengen. Het platform biedt geautomatiseerde datasynchronisatie en unieke compute-to-data mogelijkheden, waardoor algoritmes veilig kunnen worden uitgevoerd met behoud van gevoelige informatie.Als open-source oplossing stimuleert het platform actieve deelname van de gemeenschap en continue verbetering. Of u nu een bank bent die markttrends analyseert, een verzekeraar die risico-inzichten zoekt, of een retailer die klantgedrag onderzoekt: ontdek hoe dit platform veilige datacollaboratie mogelijk maakt terwijl uw intellectueel eigendom wordt beschermd en u volledige controle houdt over uw gevoelige informatie.
Deze sessie zal het volgende belichten:
Alec shares the surprising reasons packaged software selection and implementation often go disastrously wrong, and how to avoid them. Moreover, what important role data modelling techniques can play in helping to resolve problems.
When implementing enterprise software packages, the single most common reason for dissatisfaction, or even total failure, is a “data model mismatch.” That’s a bold statement, but it is backed up by the speaker’s 40 year consulting career and many “project recovery” assignments. In those cases, an organisation has spent tens or hundreds of millions or even billions of dollars (or euros) on implementing purchased software, and it simply doesn’t work or works so poorly the organisation is worse off than before. This presentation will share the common factors in these failures, and also some success stories and how data modelling fits in helping solving these problems.
In today’s rapidly evolving digital environment, organisations must continuously evolve their Data Governance practices to stay ahead and remain competitive. The explosion of data and the rise of transformative technologies such as AI and machine learning are reshaping the landscape, demanding adaptive and changing approaches to Data Governance. Join Nicola as she shares invaluable insights from her extensive Data Governance journey to date. Learn how organisations can transform their frameworks and strategies to not only address emerging challenges but also harness the full potential of data in this rapidly changing environment.
In een tijd waarin data en kunstmatige intelligentie een centrale rol innemen in bedrijfsstrategieën, is het cruciaal om niet alleen de nieuwe mogelijkheden, maar ook de nieuwste Europese wetgeving op dit gebied te begrijpen. Deze sessie biedt een boeiende en toegankelijke blik op de drie meest invloedrijke Europese wetten van dit moment: de AI Act, de Data Governance Act en de Data Act. Wat betekenen deze wetten voor uw organisatie, en hoe kunt u innovatie stimuleren terwijl u voldoet aan complexe wettelijke eisen? Met een unieke combinatie van technische en juridische expertise worden de belangrijkste onderdelen van deze wetten toegelicht, met daarbij praktische inzichten om organisaties toekomstbestendig te maken. U kunt rekenen op een informatieve sessie vol concrete tips, valkuilen en praktijkvoorbeelden.
Data engineers zijn schaars, maar stel je voor dat je met Gen-AI zelf een data warehouse kunt bouwen! Victor de Graaff, oprichter van D-Data, zal in deze inspirerende sessie laten zien hoe het mogelijk is om zonder diepgaande technische kennis in slechts 45 minuten een compleet datawarehouse op te zetten, te vullen en er een BI-dashboard bij te maken.
Victor demonstreert dit proces met behulp van openbare APIs en Gen-AI, waarbij hij de kracht van automatisering en kunstmatige intelligentie inzet. In deze showcase staan Azure en ChatGPT hem bij als ‘digitale assistenten’, en maken ze het onmogelijke mogelijk.
Door Gen-AI-gegenereerde code te gebruiken, zullen we:
Deze sessie laat zien dat zelfs specialistische taken, zoals het bouwen van datawarehouses, bereikbaar zijn voor een breder publiek dankzij Gen-AI. Bereid je voor om “in awe” te zijn en ontdek de toekomst van BI en data-engineering met kunstmatige intelligentie!
Lees minderIn zijn LinkedIn-artikel ‘Data is dood’ gooide Wouter van Aerle de knuppel in het hoenderhok: veel organisaties managen hun data op een manier die structureel tekortschiet. Denk bijvoorbeeld aan een gebrek aan duidelijke verantwoordelijkheden, een te technologische benadering of het ontbreken van een strategische visie op het gebruik van data. Hierdoor stranden ambities om ‘data-gedreven’ te worden vaak voordat ze goed en wel van de grond komen.
Wouter biedt een blik vooruit: hoe doorbreken organisaties vastgeroeste patronen in datamanagement, welke fundamentele veranderingen zijn daarvoor nodig en welke eerste stappen kunnen ze direct zetten.
Tijdens deze sessie komen de volgende onderwerpen aan bod:
Onze dataprocessen en -systemen worden steeds complexer en dynamischer. Veel bedrijven hebben moeite met het op peil houden van de datakwaliteit en het vergroten van het vertrouwen in het datalandschap.
Testen biedt inzicht in risico’s en kwaliteit van de data, de systemen en de datastromen. Het onderzoekt bijvoorbeeld de prestaties, de data-integriteit en de bedrijfslogica. Veel meer dan het vinden van problemen en bugs gaat het bij testen om het bieden en opbouwen van vertrouwen voor eindgebruikers in de oplossing die wordt gebouwd. Testen zou daarom een cruciaal onderdeel moeten zijn van elke business intelligence- en data omgeving.
In deze lezing gaat Suzanne in op testkennis gericht op data omgevingen met behulp van TMAP en het VOICE-model. Ze zal ingaan op de DAMA-kwaliteitskenmerken die je kunt overnemen en je aanmoedigen om het niveau van vertrouwen in de kwaliteit van uw systemen en gegevens te communiceren. Krijg inzicht en tips over het testen van BI- & Data-oplossingen.
Belangrijkste punten:
Hoe kun je data echt inzetten als bedrijfsmiddel? We verkennen de centrale pijler van Data Mesh: Federated Computational Data Governance. Krijg inzicht in het structureren van datateams om zowel centraal als lokaal aan uw behoeften te voldoen en leer hoe federated data governance kan zorgen voor verantwoording in de hele organisatie. We gaan in op een aantal uitdagingen op het gebied van data governance met betrekking tot dataproducten en het opstellen van datacontracten om de verwachtingen en verantwoordelijkheden van alle teams op elkaar af te stemmen.
Onderwerpen en discussiepunten:
Erasmus Universiteit en TU-Delft hebben in 2023 de krachten gebundeld om een nieuw tijdperk van onderzoekssamenwerking in te luiden met een innovatief platform voor het delen van (open) data. Gebouwd op de pijlers van gebruiksgemak, robuuste beveiliging en moderne infrastructuur maakt dit platform het delen en ontdekken van onderzoeksgegevens een fluitje van een cent. Onderzoekers profiteren van intuïtief databeheer met geautomatiseerde Digital Object Identifier (DOI) toekenning, terwijl geavanceerde beveiliging zorgt voor AVG-compliance zonder de toegankelijkheid in gevaar te brengen. Het platform biedt geautomatiseerde datasynchronisatie en unieke compute-to-data mogelijkheden, waardoor algoritmes veilig kunnen worden uitgevoerd met behoud van gevoelige informatie.Als open-source oplossing stimuleert het platform actieve deelname van de gemeenschap en continue verbetering. Of u nu een bank bent die markttrends analyseert, een verzekeraar die risico-inzichten zoekt, of een retailer die klantgedrag onderzoekt: ontdek hoe dit platform veilige datacollaboratie mogelijk maakt terwijl uw intellectueel eigendom wordt beschermd en u volledige controle houdt over uw gevoelige informatie.
Deze sessie zal het volgende belichten:
Alec shares the surprising reasons packaged software selection and implementation often go disastrously wrong, and how to avoid them. Moreover, what important role data modelling techniques can play in helping to resolve problems.
When implementing enterprise software packages, the single most common reason for dissatisfaction, or even total failure, is a “data model mismatch.” That’s a bold statement, but it is backed up by the speaker’s 40 year consulting career and many “project recovery” assignments. In those cases, an organisation has spent tens or hundreds of millions or even billions of dollars (or euros) on implementing purchased software, and it simply doesn’t work or works so poorly the organisation is worse off than before. This presentation will share the common factors in these failures, and also some success stories and how data modelling fits in helping solving these problems.
In today’s distributed and dynamic data landscapes, traditional approaches to governance and team organization can no longer keep pace. To unlock the full potential of data as a strategic asset, organizations must rethink how they manage, govern, and structure their data functions. This course, rooted in the principles of Federated Computational Data Governance, explores how to balance centralized oversight with distributed autonomy while ensuring accountability and alignment across teams.
Why We Need a New Approach
In many organizations, data governance is struggling to find its place, providing static policies focused on compliance rather than enablers of innovation. However, modern organizations need governance frameworks that are flexible, computational, and adaptive to distributed ecosystems. Federated data governance provides the balance needed to:
By introducing computational models and distributed governance principles, this course shows how to create a scalable, adaptable data team and framework.
The Three-Dimensional Approach to Structuring Data Teams
Data teams today must operate across three key dimensions to meet the demands of strategic alignment, operational execution, and distributed autonomy. Participants will learn how to organize their teams to:
This multi-layered approach ensures that data teams can balance innovation with foundational stability, creating a system that supports agility without sacrificing control.
Ensuring Data Accountability in Distributed Landscapes
As data becomes more distributed, accountability is critical to maintaining trust, quality, and compliance. The course will cover:
Key Topics Covered
This course closely aligns with the workshop outline and includes practical, actionable insights into:
Learning Objectives
Who is it for?
This course is designed for data leaders, managers, and governance professionals who want to create scalable and effective data organizations. Whether you’re responsible for strategy, compliance, or operations, you’ll gain tools and insights to navigate the evolving data landscape with confidence.
Detailed Workshop Outline
1. Introduction
Overview of Workshop Goals: Explain the importance of data as an asset and why organizations must move beyond treating data as just a service.
Solar System Metaphor: Introduce the concept of the data organization as a solar system, with data teams, governance, and accountability as key planetary bodies that need alignment for optimal performance.Key Points:
2. Data Accountability: Creating a Culture of Ownership and Responsibility
Why Data Accountability Matters: Without clear accountability, data quality, security, and data availability suffer.
Practical Steps to Ensure Accountability:
Activity: Scenario-based discussion where participants identify where accountability is lacking in a fictional data-driven organization, and propose solutions for creating accountability.
Key Learning: Participants will gain insights into what data accountability entails, ensuring each team member knows their role in maintaining data quality and governance.
3. Data Governance Models: Federated Governance and Distributed Authority
Introduction to Data Governance: Why data governance is essential to manage risk, ensure compliance, and drive effective data use.
Federated Data Governance: What it is and how it works – balancing centralized oversight with distributed ownership across data hubs.
Key Components of a Data Governance Framework:
Activity: In groups, participants will design a federated governance model for a hypothetical organization, ensuring alignment between distributed teams and central governance.
Key Learning: Participants will learn how to implement a federated data governance model that balances control with autonomy, ensuring alignment across the organization.
4. Structuring Data Teams: Balancing Centralized and Distributed Needs
Discussion: Challenges in organizing data teams.
Activity: Group exercise where participants design an ideal data team structure that addresses both distributed and centralized organizational needs.
Key Learning: Participants will learn how to create a data team structure that is flexible enough to meet both innovation-driven and operational demands.
5. Navigating Long-Term Sustainability: Lessons from NASA’s Mars Global Surveyor
Reflection: Insights from NASA’s Mars Global Surveyor and NASA’s Mars Climate Orbiter.
Key Learning: Participants will leave with strategies for ensuring long-term sustainability and scalability in their data governance and team structures.
6. Wrap-Up and Key Takeaways
Summarizing the Journey: Recap of the solar system metaphor and how the workshop’s concepts apply to real-world data challenges.
Key Takeaways:
Q&A and Next Steps: Open the floor for final questions and discussions about how participants can implement the lessons in their own organizations.
Lees minder
In today’s rapidly changing world, the ability to harness and manage data effectively is a critical success factor for organizations. This course offers a foundational understanding of Master Data Management (MDM) and the pivotal role Data Governance plays in ensuring data consistency, accuracy, and trustworthiness.
In today’s data-driven world, organizations struggle to maintain a single, trusted view of their data. This half-day workshop provides an essential introduction to Master Data Management (MDM) and the critical role of Data Governance in ensuring data accuracy, consistency, and value. Through interactive discussions and practical insights, participants will explore key concepts of MDM, learn how to identify valuable data domains, and understand why mastering reference data and implementing data governance strategies are essential for business success. By the end of the session, you will be equipped with the knowledge and tools to drive your organization toward trusted, well-governed data.
Learning Points:
Detailed Course Outline
1. Introduction and Objectives
2. Understanding Master Data Management (MDM)
3. Identifying Key Data Domains
4. Reference Data Management
5. The Role of Data Governance in MDM
6. Key Takeaways and Next Steps
Whether you call it a conceptual data model, a domain model, a business object model, or even a “thing model,” the concept model is seeing a worldwide resurgence of interest. Why? Because a concept model is a fundamental technique for improving communication among stakeholders in any sort of initiative. Sadly, that communication often gets lost – in the clouds, in the weeds, or in chasing the latest bright and shiny object. Having experienced this, Business Analysts everywhere are realizing Concept Modelling is a powerful addition to their BA toolkit. This session will even show how a concept model can be used to easily identify use cases, user stories, services, and other functional requirements.
Realizing the value of concept modelling is also, surprisingly, taking hold in the data community. “Surprisingly” because many data practitioners had seen concept modelling as an “old school” technique. Not anymore! In the past few years, data professionals who have seen their big data, data science/AI, data lake, data mesh, data fabric, data lakehouse, etc. efforts fail to deliver expected benefits realise it is because they are not based on a shared view of the enterprise and the things it cares about. That’s where concept modelling helps. Data management/governance teams are (or should be!) taking advantage of the current support for Concept Modelling. After all, we can’t manage what hasn’t been modelled!
The Agile community is especially seeing the need for concept modelling. Because Agile is now the default approach, even on enterprise-scale initiatives, Agile teams need more than some user stories on Post-its in their backlog. Concept modelling is being embraced as an essential foundation on which to envision and develop solutions. In all these cases, the key is to see a concept model as a description of a business, not a technical description of a database schema.
This workshop introduces concept modelling from a non-technical perspective, provides tips and guidelines for the analyst, and explores entity-relationship modelling at conceptual and logical levels using techniques that maximise client engagement and understanding. We’ll also look at techniques for facilitating concept modelling sessions (virtually and in-person), applying concept modelling within other disciplines (e.g., process change or business analysis,) and moving into more complex modelling situations.
Drawing on over forty years of successful consulting and modelling, on projects of every size and type, this session provides proven techniques backed up with current, real-life examples.
Topics include:
Learning Objectives:
In today’s distributed and dynamic data landscapes, traditional approaches to governance and team organization can no longer keep pace. To unlock the full potential of data as a strategic asset, organizations must rethink how they manage, govern, and structure their data functions. This course, rooted in the principles of Federated Computational Data Governance, explores how to balance centralized oversight with distributed autonomy while ensuring accountability and alignment across teams.
Why We Need a New Approach
In many organizations, data governance is struggling to find its place, providing static policies focused on compliance rather than enablers of innovation. However, modern organizations need governance frameworks that are flexible, computational, and adaptive to distributed ecosystems. Federated data governance provides the balance needed to:
By introducing computational models and distributed governance principles, this course shows how to create a scalable, adaptable data team and framework.
The Three-Dimensional Approach to Structuring Data Teams
Data teams today must operate across three key dimensions to meet the demands of strategic alignment, operational execution, and distributed autonomy. Participants will learn how to organize their teams to:
This multi-layered approach ensures that data teams can balance innovation with foundational stability, creating a system that supports agility without sacrificing control.
Ensuring Data Accountability in Distributed Landscapes
As data becomes more distributed, accountability is critical to maintaining trust, quality, and compliance. The course will cover:
Key Topics Covered
This course closely aligns with the workshop outline and includes practical, actionable insights into:
Learning Objectives
Who is it for?
This course is designed for data leaders, managers, and governance professionals who want to create scalable and effective data organizations. Whether you’re responsible for strategy, compliance, or operations, you’ll gain tools and insights to navigate the evolving data landscape with confidence.
Detailed Workshop Outline
1. Introduction
Overview of Workshop Goals: Explain the importance of data as an asset and why organizations must move beyond treating data as just a service.
Solar System Metaphor: Introduce the concept of the data organization as a solar system, with data teams, governance, and accountability as key planetary bodies that need alignment for optimal performance.Key Points:
2. Data Accountability: Creating a Culture of Ownership and Responsibility
Why Data Accountability Matters: Without clear accountability, data quality, security, and data availability suffer.
Practical Steps to Ensure Accountability:
Activity: Scenario-based discussion where participants identify where accountability is lacking in a fictional data-driven organization, and propose solutions for creating accountability.
Key Learning: Participants will gain insights into what data accountability entails, ensuring each team member knows their role in maintaining data quality and governance.
3. Data Governance Models: Federated Governance and Distributed Authority
Introduction to Data Governance: Why data governance is essential to manage risk, ensure compliance, and drive effective data use.
Federated Data Governance: What it is and how it works – balancing centralized oversight with distributed ownership across data hubs.
Key Components of a Data Governance Framework:
Activity: In groups, participants will design a federated governance model for a hypothetical organization, ensuring alignment between distributed teams and central governance.
Key Learning: Participants will learn how to implement a federated data governance model that balances control with autonomy, ensuring alignment across the organization.
4. Structuring Data Teams: Balancing Centralized and Distributed Needs
Discussion: Challenges in organizing data teams.
Activity: Group exercise where participants design an ideal data team structure that addresses both distributed and centralized organizational needs.
Key Learning: Participants will learn how to create a data team structure that is flexible enough to meet both innovation-driven and operational demands.
5. Navigating Long-Term Sustainability: Lessons from NASA’s Mars Global Surveyor
Reflection: Insights from NASA’s Mars Global Surveyor and NASA’s Mars Climate Orbiter.
Key Learning: Participants will leave with strategies for ensuring long-term sustainability and scalability in their data governance and team structures.
6. Wrap-Up and Key Takeaways
Summarizing the Journey: Recap of the solar system metaphor and how the workshop’s concepts apply to real-world data challenges.
Key Takeaways:
Q&A and Next Steps: Open the floor for final questions and discussions about how participants can implement the lessons in their own organizations.
Lees minder
In today’s rapidly changing world, the ability to harness and manage data effectively is a critical success factor for organizations. This course offers a foundational understanding of Master Data Management (MDM) and the pivotal role Data Governance plays in ensuring data consistency, accuracy, and trustworthiness.
In today’s data-driven world, organizations struggle to maintain a single, trusted view of their data. This half-day workshop provides an essential introduction to Master Data Management (MDM) and the critical role of Data Governance in ensuring data accuracy, consistency, and value. Through interactive discussions and practical insights, participants will explore key concepts of MDM, learn how to identify valuable data domains, and understand why mastering reference data and implementing data governance strategies are essential for business success. By the end of the session, you will be equipped with the knowledge and tools to drive your organization toward trusted, well-governed data.
Learning Points:
Detailed Course Outline
1. Introduction and Objectives
2. Understanding Master Data Management (MDM)
3. Identifying Key Data Domains
4. Reference Data Management
5. The Role of Data Governance in MDM
6. Key Takeaways and Next Steps
Whether you call it a conceptual data model, a domain model, a business object model, or even a “thing model,” the concept model is seeing a worldwide resurgence of interest. Why? Because a concept model is a fundamental technique for improving communication among stakeholders in any sort of initiative. Sadly, that communication often gets lost – in the clouds, in the weeds, or in chasing the latest bright and shiny object. Having experienced this, Business Analysts everywhere are realizing Concept Modelling is a powerful addition to their BA toolkit. This session will even show how a concept model can be used to easily identify use cases, user stories, services, and other functional requirements.
Realizing the value of concept modelling is also, surprisingly, taking hold in the data community. “Surprisingly” because many data practitioners had seen concept modelling as an “old school” technique. Not anymore! In the past few years, data professionals who have seen their big data, data science/AI, data lake, data mesh, data fabric, data lakehouse, etc. efforts fail to deliver expected benefits realise it is because they are not based on a shared view of the enterprise and the things it cares about. That’s where concept modelling helps. Data management/governance teams are (or should be!) taking advantage of the current support for Concept Modelling. After all, we can’t manage what hasn’t been modelled!
The Agile community is especially seeing the need for concept modelling. Because Agile is now the default approach, even on enterprise-scale initiatives, Agile teams need more than some user stories on Post-its in their backlog. Concept modelling is being embraced as an essential foundation on which to envision and develop solutions. In all these cases, the key is to see a concept model as a description of a business, not a technical description of a database schema.
This workshop introduces concept modelling from a non-technical perspective, provides tips and guidelines for the analyst, and explores entity-relationship modelling at conceptual and logical levels using techniques that maximise client engagement and understanding. We’ll also look at techniques for facilitating concept modelling sessions (virtually and in-person), applying concept modelling within other disciplines (e.g., process change or business analysis,) and moving into more complex modelling situations.
Drawing on over forty years of successful consulting and modelling, on projects of every size and type, this session provides proven techniques backed up with current, real-life examples.
Topics include:
Learning Objectives:
Boek ook een van de praktische workshops!
Drie internationale topsprekers verzorgen de dag na het congres boeiende en zeer praktische workshops. Congresdeelnemers genieten combinatiekorting dus aarzel niet en boek snel want deelname aan de workshops is gelimiteerd.
Kijk op de agenda van Adept Events
“Langere sessies leverden de mogelijkheid tot uitdiepen en dialoog. Dat vind ik goed aan deze summit.”
“Inspirerende summit met goede sprekers die de onderwerpen vanuit verschillende hoeken mooi belichten. Organisatie en locatie: prima!!”
“Inspirerend en prima verzorgd congres. Actuele onderwerpen met veel praktische richtlijnen, handvatten en do’s en don’ts over de informatie architectuur zoals Big Data, Data Lakes, datavirtualisatie en een logisch datawarehouse.”
“Een leuk en leerzaam event!”
“As a BI Consultant I feel inspired to recommend this conference to everyone looking for practical tools to implement a long term BI Customer Service.”
“Was weer prima!”