Dataintegrasjon er, om ikke et helt nytt begrep innen IT, så iallfall noe som de senere årene har fått stadig mer aktualitet.[når?] Behovet for effektiv integrering av data fra flere kilder har blitt meget tydelig etter klient-tjener bølgen, som hadde sin topp på begynnelsen av 1990-tallet. De stadig nye applikasjonstypene som f.eks kunderelasjonshåndtering, ressursplanleggingssystem, faktura, regnskap, ... kom i tillegg til de tradisjonelle, gjerne stormaskinbaserte, sentraliserte systemene med alt på ett sted.

I etterkant av klient-tjener bølgen kom datavarehusbølgen, hvor en viktig motivasjon var å samle all distribuert informasjon på et sted. Da fokus her hovedsakelig var rapporteringsløsninger (eller BI-løsninger), kom andre operasjonelle behov i bakgrunnen. Datavarehuset løste ikke problemer med inkonsistens i overlappende data i forskjellige operasjonelle systemer. Derfor har nye varianter dukket opp. Grunndataforvaltning er en av de mange trebokstavsforkortelsene som har dukket opp.

Det foregår en stadig evolusjon på dette området, og nye fagfelter, begreper dukker opp. For eksempel gylden oppføring, som er sterkt beslektet med grunndataforvaltning. Felles for alle disse områdene er at de kommer inn under begrepet dataintegrasjon. Andre fagfelter som er sterkt knyttet til dataintegrasjon er metadata-forvaltning, datakvalitet, dataprofilering, datastyring.

Det er også en rivende utvikling på verktøysiden. I forbindelse med Datavarehusbølgen dukket det opp såkalte ETL-verktøy for å migrere data fra kilder til datavarehuset. Disse var sterkt batch-orienterte og avhengige av å kjøre om natten for ikke å forstyrre operasjonell bruk. Senere har disse utviklet seg videre til mer generelle systemer for dataintegrasjon og samspill mellom systemer. 2 generasjon med dataintegrasjonsverktøy har tatt opp i seg teknologi for sanntidsintegrasjon, tjenesteorientert grensesnitt, datakvalitet, metadata og lignende.