Ed Waitzer on ESG today PAGE 13
Shauneen Bruder is comfortable with AI in the boardroom PAGE 20
How to capitalize on AI now PAGE 29




Ed Waitzer on ESG today PAGE 13
Shauneen Bruder is comfortable with AI in the boardroom PAGE 20
How to capitalize on AI now PAGE 29
It’s time to rethink how we work and how boards govern
15 DIRECTORS’ DILEMMA
How should directors tackle AI?
Chapter talk on IP, AI and IT; welcome, Dexter John; National Director Conference and Gala in June; and board appointments
10 DISPATCHES
Tips for introverts, hiring from within, finding the right board for you, top skills for the 2025 director, and green productivity
13 POINT OF VIEW
Stripped of politics, ESG is really about practicing sound business judgment
48 RECOMMENDED READING
In We, The Data: Human Rights in the Digital Age, political scientist
Wendy H. Wong warns of the potential harm from information collection by companies
50 ADJOURNED
On International Women’s Day 2025, females remain greatly outnumbered in the boardroom
EDITOR
Simon Avery
ART DIRECTION + DESIGN
Steven Balaban, Philina Chan
INSTITUTE OF CORPORATE DIRECTORS
Rahul Bhardwaj, President and CEO
Richard Piticco, Chief Administrative Officer
Jan Daly Mollenhauer, Vice-President, Sales Marketing, Membership
Gigi Dawe, Vice-President, Policy & Research
Shannon Hunt, Vice-President, Education
Kathryn Wakefield, Vice-President, Chapter Relations
SJC
Tony Gagliano, Chair and CEO
Cameron Williamson, Vice-President Client Solutions, Media & Content
Sasha Emmons, Vice-President, Branded & Custom Content
Paul Ferriss, Director, Editorial & Creative
Joycelyn Tran, Production Manager
ADVERTISING INQUIRIES
For advertising inquiries, please contact Christine Miles, Director, Sponsorship, cmiles@icd.ca
Building trust and confidence in Canadian organizations is imperative. At the Institute of Corporate Directors (ICD), we believe that this starts with the right leadership and good governance. Directors must lead by being informed, prepared, ethical, connected, courageous and engaged with the world. In the pages that follow, you will find thoughtful and provocative articles that explore these essential leadership qualities.
Bâtir la confiance envers les organisations canadiennes est primordial. À l’Institut des administrateurs de sociétés (IAS), nous croyons que cela commence par un bon leadership et une bonne gouvernance. Les administrateurs doivent gouverner en étant informés, préparés, intègres, connectés, courageux et ouverts sur le monde. Dans les pages qui suivent, vous trouverez des articles réfléchis et provocateurs qui explorent ces qualités de leadership essentielles.
1601 – 250 Yonge Street, Toronto, Ontario M5B 2L7
T: 416-593-7741 F: 416-593-0636 E: info@icd.ca
ISSN 2371-5634 (Print)
www.icd.ca ISSN 2371-5650 (Online)
The ICD welcomes a diversity of opinion for inclusion in Director Journal. The contents of this publication do not necessarily reflect the opinions of the ICD, its partners, its sponsors, or its advertisers. Readers are encouraged to consider seeking professional advice and other views.
To request reprints of articles, please contact info@icd.ca
Simon Avery Editor savery@icd.ca
There’s no hiding from this technological transformation
Members of the Institute of Corporate Directors have diverse interests, but one widely shared desire is to gain more knowledge about artificial intelligence – does my organization need it, how should we begin to invest in it, and what are the board’s oversight responsibilities? This issue aims to provide some guidelines for directors, whether your organization is contemplating an initial investment or already integrating AI into overall strategy.
People we spoke to used words like “transformational” in their descriptions, but no one suggested the technology is overhyped. In fact, they warned that board members who fail to understand the strategic impact AI is going to have on their business models will underperform. Furthermore, organizations that put more weight on the risks of AI rather than the opportunities will fall behind.
The arrival of AI requires boards to enhance their knowledge and update processes, says Shauneen Bruder, who serves on the board of Canada’s largest AI institute, the Vector Institute in Toronto, and chairs the board of CN Railway. “It’s going to need broad literacy and adjusted governance and control mechanisms so that you can control for the unknowns,” she says (page 20).
Our cover story, on page 29, makes the case for Canadian companies to accelerate their adoption of AI, but to do so with caution. “There’s an AI emergency in Canada,” says Nicholas Darveau-Garneau, a corporate director and entrepreneur. “We have to get going.” But he also advises boards to direct investments to specific business problems that need fixing.
A second feature, “Boards grapple, laws lag” (page 40) looks at the state of regulations and industry standards. AI’s rapid evolution translates into a legal framework still under construction, particularly in Canada and the United States. This is the moment boards need to be learning everything they can about AI and ensuring their organization has the right people and training in place to eventually move ahead with further deployment. They should also have a eye on industry standards as well as compliance and regulations in other jurisdictions.
On ne peut échapper à cette transformation technologique
Les membres de l’Institut des administrateurs de sociétés ont des intérêts diversifiés, mais l’un de leurs désirs communs est d’obtenir davantage de connaissances sur l’intelligence artificielle. Mon organisation en a-t-elle besoin? Comment devrais-je commencer à y investir? Et quelles sont les responsabilités du conseil en matière de surveillance? Ce numéro entend fournir certaines réponses et lignes directrices à l’intention des administrateurs, que votre organisation envisage un investissement initial ou soit déjà en train d’intégrer l’IA dans sa stratégie d’ensemble.
Nous avons parlé à beaucoup de gens à propos de l’IA et de la direction qu’elle a prise. Ces gens utilisent des mots comme « transformationnel » dans leurs descriptions, mais personne n’a suggéré que cette technologie est surestimée. En fait, ces personnes préviennent les administrateurs que s’ils échouent à comprendre l’impact stratégique de l’IA sur leur modèle d’affaires, ils se condamnent à voir leurs entreprises sousperformer. En outre, les organisations qui mettent plus d’emphase sur les risques que sur les opportunités traîneront de la patte.
L’arrivée de l’IA, puissante et envahissante, exige des conseils qu’ils améliorent leurs connaissances et actualisent leurs processus, affirme Shauneen Bruder, qui siège au conseil du plus grand institut d’IA au Canada, le Vector Institute de Toronto, et préside le conseil de CN Rail. « On aura besoin d’un fort degré de littératie, d’une gouvernance adaptée et de mécanismes de contrôle afin de pouvoir contrôler les inconnues », explique-t-elle en entrevue en page 20.
Notre article principal, en page 29, expose le fait que les entreprises canadiennes devront accélérer leur adoption de l’IA, mais de façon prudente. « Il existe une urgence d’adopter l’IA, soutient Nicholas Darveau-Garneau, un administrateur de sociétés et entrepreneur. Nous devons nous mettre au travail. »
Un deuxième article en page 40, « Pendant que les conseils tentent de comprendre l’IA, les lois peinent à suivre le rythme », traite de l’état de la réglementation et des normes de l’industrie. L’évolution rapide de l’IA se traduit par un cadre juridique encore en chantier, particulièrement au Canada et aux États-Unis. C’est le moment où les conseils doivent apprendre tout ce qu’ils peuvent sur l’IA et faire en sorte que leur organisation mettent en place les bonnes personnes et de la formation adéquate pour éventuellement progresser vers un déploiement ultérieur. Ils devraient aussi garder l’œil ouvert sur les normes de l’industrie ainsi que la conformité et la réglementation dans d’autres juridictions.
must forge ahead into the unknown
Directors confront a world of accelerated uncertainty today. While our instincts may tell us to pause, the reality demands clear focus and action; directors cannot afford to sit still and wait for the dust to settle.
Take the environment surrounding AI as an example. A year ago, the conversation focused on responsible use and regulation of the emerging technology. Today that theme has been overtaken by political and technological events. As I write this, the U.S. has just banned federal employees from downloading the Chinese AI model DeepSeek onto work devices. And Meta and Google have relinquished their claims that their AI will not be used for military purposes.
Board oversight of AI is becoming essential. About one-third of the TSX 60 companies have incorporated it into their board mandates and more than half mention AI in their 2024 proxy circulars. The proxy advisory services company Glass Lewis, in its latest policy guidelines, has included board oversight of AI for the first time, calling on companies to disclose their practices as well as the steps they are taking to develop their own AI expertise.
On top of the AI tsunami sweeping the corporate world, the prospect of a trade war is forcing many Canadian companies to reassess their corporate strategies. During the past few years, Canadian and U.S. companies signed commercial agreements within the framework of the revised free trade agreement the two countries signed in 2018. A new, protectionist environment could change many of the rules and contracts they have come to rely on.
Even in trying times, I draw optimism from the fact that we have a strong foundation and culture for good governance in Canada. But it’s important to acknowledge that directors are facing extraordinary stress and challenges. The choices they have to confront will test that foundation, making board resilience essential. My mantra for these times is Keep Calm and Lead On. Coincidentally, our National Director Conference in Edmonton this June will focus on the resilient board, with both global trade and AI forming part of the agenda. I encourage members to attend, enjoy the wonderful Edmonton hospitality, spend time with peers, share insights and learn.
Rahul Bhardwaj, LL.B, ICD.D President and CEO, The Institute of Corporate Directors
Les conseils doivent avancer dans l’inconnu
Les administrateurs évoluent aujourd’hui dans un monde d’incertitude accélérée. Même si nos instincts peuvent nous dicter de prendre une pause, la réalité exige une clarté d’objectifs et d’action. Les administrateurs ne peuvent tout simplement pas se permettre d’être inactifs en attendant que la poussière retombe.
Prenons pour exemple l’environnement qui entoure l’intelligence artificielle. Il y a un an, la conversation s’articulait autour d’un usage responsable et d’une réglementation de la technologie en émergence. Aujourd’hui, ce thème a cédé le pas à des événements politiques et technologiques. Au moment où j’écris ces lignes, le gouvernement américain vient tout juste d’interdire à tous les employés fédéraux de télécharger le modèle d’IA DeepSeek. Et Meta et Google ont renoncé à leur volonté que leurs travaux en IA ne servent pas à des fins militaires.
La surveillance de l’IA par le conseil devient essentielle. Environ le tiers des sociétés du TSX 60 l’ont intégrée aux mandats de leurs conseils et plus de la moitié d’entre elles mentionnent l’IA dans leurs circulaires de sollicitation de procurations. L’entreprise de services-conseils en procuration Glass Lewis, dans ses plus récentes lignes directrices sur les politiques de référence, a inclus pour la première fois la surveillance de l’IA par les conseils, appelant les entreprises à divulguer leurs pratiques ainsi que les mesures qu’elles prennent pour développer leur propre expertise en matière d’IA.
En plus du tsunami d’IA qui balaye le monde corporatif, la perspective d’une guerre commerciale force beaucoup d’entreprises canadiennes à réévaluer leurs stratégies d’ensemble. Au cours des dernières années, des entreprises canadiennes et américaines ont signé des ententes commerciales dans le cadre de l’accord de commerce révisé entre les deux pays signé en 2018. Un nouvel environnement protectionniste pourrait changer bien des règles. Mon mantra, dans ces circonstances, est de rester calme et de continuer.
Incidemment, notre Congrès national des administrateurs, qui se tiendra à Edmonton en juin, portera sur la résilience au cœur du conseil. J’invite les membres à y participer, à profiter de la magnifique hospitalité des gens d’Edmonton, de passer du temps avec leurs pairs, de partager des idées et d’apprendre.
+ RECENT CHAPTER EVENTS
+ ICD BOARD APPOINTMENT
+ DIRECTORS ON THE MOVE
Intellectual property (IP) is one of the most valuable assets a company holds and its proper management requires board directors to stay informed. This Ottawa Chapter event was spearheaded by Kim Butler. During the event, Natalie Giroux, president of Stratford Intellectual Property, provided expert insights into protecting patents, trade secrets and trademarks. The session highlighted strategies for reducing IP-related risks and ensuring that investments are aligned with corporate goals. Directors gained practical advice on assessing IP strength and developing comprehensive strategies to protect innovation and minimize risk.
Artificial Intelligence is transforming industries, offering businesses opportunities to innovate and optimize processes. At a recent Manitoba Chapter event, David Gerhard, Professor and head of the Department of Computer Science at the University of Manitoba, shared expert insights on AI’s evolution, its impact on businesses, and the responsibilities of boards in guiding AI strategies. The session covered ethical considerations, regulatory developments, and how boards can align AI initiatives with organizational goals while addressing potential risks.
Have you ever attended a board meeting where technology topics are deferred to the one director with IT expertise? At a recent GTA Chapter event, led by committee members Andrew Wilson and Leanna Falkiner, experts discussed how directors without a technical background can effectively govern IT issues like cybersecurity, digital assets and generative AI. This session highlighted the importance of fostering inclusive, productive IT discussions across the boardroom. Richard Wilson, a partner at PwC Canada, moderated the webinar featuring Sharon Castelino, Director at Move Health Corp. and the City of Toronto Investment Board, and Ranjika Manamperi, CIO at Ontario Power Generation. The panel provided governance frameworks, practical strategies for engaging with technology leaders, and tools for translating complex IT topics into familiar boardroom terms like strategy, risk and finance.
ICD BOARD APPOINTMENT
Dexter John, ICD.D
Dexter John brings over 25 years of leadership, governance and risk management experience from his prior positions at Stikeman Elliott, Donahue LLP, Investment Dealers Association, Ontario Securities Commission, the Toronto Stock Exchange, Kingsdale Shareholder Services Inc., and Sodali & Co (Canada). He currently serves as the CEO of the Financial Services Regulatory Authority (FSRA) of Ontario.
John’s influence extends beyond his current roles. He is a board member for Organigram Inc., CanPR and FSRA, and has previously served on the boards of Prosper Gold Corp., Augustine Ventures Inc. and Partners Real Estate Investment Trust. He also contributed to the “Charting the Future of Corporate Governance” report as a member of the Committee on the Future of Corporate Governance in Canada, a joint initiative of TMX Group Ltd. and the Institute of Corporate Directors.
Conference keynote address
Nik Nanos will paint a picture of the mood of Canadians in 2025 and on the heels of 2024, the “Super Year” for elections when 3.7 billion people voted in 72 countries. Drawing from his extensive research, Nanos will offer insights and analysis of economic, technological and societal factors and explore how boards of Canadian businesses can navigate these shifts and stay ahead of emerging trends and evolving stakeholder expectations.
Register now for the 2025 ICD National Director Conference and Fellowship Awards Gala in Edmonton.
The ICD would like to congratulate the following members on their recent board appointments:
METALS & MINING
André Le Bel, ICD.D DIRECTOR Vior Inc.
GOVERNMENT
Bob Dhillon, ICD.D DIRECTOR Alberta Investment Management Corp. (AIMCo)
Patricia Bood, ICD.D DIRECTOR
Passenger Transportation Board
BANKING, FINANCE & INVESTMENTS
Greg Clark, ICD.D DIRECTOR Calvert Home Mortgage Investment Corp.
EDUCATION
Susanna Zagar, ICD.D GOVERNOR Ontario Tech University
ENERGY & POWER
Ravinder Minhas DIRECTOR FortisAlberta Inc.
Nicolle Butcher, ICD.D DIRECTOR Ontario Power Generation Inc.
INSURANCE
Sharon Giffen, ICD.D DIRECTOR WorkSafeBC
SPORTS & ENTERTAINMENT
Andrew MacCorquodale, ICD.D DIRECTOR Saskatchewan Roughrider Football Club Inc.
OIL & GAS
Kelly Koss-Brix, ICD.D DIRECTOR ATCO Ltd.
TRANSPORTATION
Darlene Hyde, ICD.D DIRECTOR TransLink
Harpinder Sandhu ICD.D DIRECTOR TransLink
NOT-FOR-PROFIT
Pamela Huff, ICD.D DIRECTOR Trillium Health Partners Foundation
Ken Dufault, ICD.D DIRECTOR Chronic Disease Innovation Centre
Elaine Pantel, ICD.D DIRECTOR Prosserman JCC Schwartz/Reisman Centre
Patricia Bood, ICD.D DIRECTOR
Project Change Foundation
Patricia Bood, ICD.D DIRECTOR
Clean Prosperity
John Barrett, ICD.D CHAIR World Institute for Nuclear Security
Meg Bregazzi, ICD.D DIRECTOR
Alberta Children’s Hospital Research Institute
Kurt Pregler, ICD.D DIRECTOR
Metro Vancouver Crime Stoppers
Miranda Ji CHAIR Intercultural Association of Greater Victoria
Annie Houle DIRECTOR Girl Guides of Canada
Dina Kamal DIRECTOR Girl Guides of Canada
Heather McFadyen DIRECTOR Girl Guides of Canada
Send your board appointment publication requests to: Sheldon Mahabir, Director of Member Engagement, smahabir@icd.ca
NEWSWORTHY TRENDS AND TOPICS FOR DILIGENT DIRECTORS
IT’S SHOWTIME
NETWORKING CAN BE TOUGH for introverts, with four out of 10 identifying as such. But schmoozing can build connections, grow your career, and help you learn about different industries. So how do you mingle without zapping your energy or pretending to be something you’re not?
One way, according to Forbes, is to prepare to socialize before you mingle. Do a little research on the people you want
to meet and what topics you want to learn about. Having a few go-to questions or conversation starters can make small talk less stressful. If you’re more comfortable listening, make that work for you; most people love to talk about themselves and their projects when asked. Another tactic is to seek out networking opportunities that are more your speed, like virtual or more intimate events or workshops.
WHEN A CEO IS APPOINTED FROM THE BOARD, conventional wisdom has been that the move is both a failure in succession planning and a stop-gap measure. The practice is growing, however, and can be the best strategic option, according to Harvard Business Review.
It’s easy to understand why; board members have valuable institutional knowledge that can help steady the markets, as well as possessing both an internal and external POV.
However, there can be downsides too; directors may think they know each other well but they’ve often only worked together in one context, which can lead to overestimating a candidate’s knowledge. Picking a board member over an internal candidate can demoralize teams and even affect market value.
Between 2018 and 2023, HBR says that the number of board members becoming permanent CEOs jumped by 88 per cent.
Considering making a director the CEO? Those who’ve made the transition say to focus on these three factors:
JOINING A BOARD is a compelling next step for late-stage senior execs to keep one foot in the industry and still earn income, but without the daily grind. But is it really as flexible as it seems? The short answer is yes. The longer answer is, it takes some planning, according to board search specialist Kylie Hammond, via LinkedIn.
The key to landing a board seat is knowing where your experience fits best, being deliberate in your lifestyle choices and understanding how earnings align with responsibilities. Directorship can be demanding, so it’s crucial to be clear about what kind of roles you want and how much effort you’re willing to commit. Take your time finding the right fit; it’s normal for matching process to take up to two years, so plan accordingly.
THERE’S NO ONE-SIZE-FITS-ALL “perfect” board size, but both too big or too small can be problematic. With bloated boards, it’s hard to keep everyone engaged, and one or two voices may dominate. Too small, and there’s not enough hands to get the job done. So, what’s the sweet spot for many companies? Ideally, says the Corporate Governance Institute, it’s about 10 members.
Here are three factors that may guide size: the stage of development of the company, the number of board committees required, and the right balance of skills and experience.
1 For small businesses, it’s less about getting to a board of 10 than about building the good habit of meeting regularly, and then, as needed, adding expertise that matches the company’s ambition and adding separation between the board and management.
2 As a company grows, adding committees like audit and compensation naturally means more board members to manage the workload.
3 The final consideration when it comes to optimal board size: ensuring the right blend of skills and expertise to support the company’s strategy as it evolves over time.
CHANGE IS THE ONLY CONSTANT, and boards need to keep up. According to the Corporate Governance Institute, there are five key soft and hard skills that directors need now.
First up, directors need a solid grasp of AI, what it can do (even in the boardroom itself), where the risks lie, and how to use it effectively.
Also, sustainability expertise is still tablestakes; despite rumblings from the U.S., ESG isn’t going anywhere, as it’s a multi-trillion-dollar space globally that’s only growing.
NOT MONEY, BUT PLANTS.
That trailing pothos or giant monstera next to your desk can help boost your productivity, writes Ben Kesslen at Quartz. That’s just one tip to make your work-from-home space more appealing when you’re there for eight hours a day. Other tips from the experts at Serpple, a search engine optimization company, include investing in good lighting, decluttering your space, buying the best tech you can afford and choosing a good chair. Your back and hips will thank you.
Crisis management and resilience planning are next on the list. With the past few years’ unprecedented events, knowing how to pivot through upheaval is a must.
Strategic thinking and innovation is also critical. Directors can drive growth by spotting industry shifts early and jumping on new opportunities.
Finally, strong stakeholder communication skills are essential. Mastering storytelling that engages key groups such as investors, employees and customers can make or break a company’s success.
DESPITE PUBLIC FEARS to the contrary, ESG in corporate Canada is here to stay, and with it the overriding principle that companies perform best when their leaders respect various stakeholder interests rather than simply short-term profit maximization. But it’s important to understand that different companies will prioritize different ESG (environmental, social and governance) issues and may not even use the term “ESG” anymore.
Some companies champion conservative ideals, others emphasize liberal ones. When we strip away the various forms, the outcome is the same: boards exercising their business judgment to address material risks that might harm the business and stakeholders they serve. In fact, Canadian law requires that directors address ESG factors relevant to achieving sustainable returns.
Likewise, while leaders at both ends of the political spectrum often argue that corporations should not use their resources for political ends, neither are averse to corporate campaign contributions. Both have their own specific ESG issues (some overlap) in respect of which they would argue that good corporate governance should be about more than just making money. In the United States today, companies that have pro-gun, pro-Christian or anti-climate views are lauded for their “values” while those with contrary positions are said to be illegitimately promoting a “woke” agenda. The shared assumption is that our market system works best when corporate conduct has regard for the interests of various stakeholders.
Torys LLP recently reported that most Canadian public companies consider ESG factors to be part of prudent risk management. Torys’ survey of companies in the TSX composite index indicated that 95 per cent publish some form of ESG report, nearly 80 per cent include ESG factors in their board skills matrix, and 59 per cent link executive pay to climate related metrics.
Suggesting that corporate managers should ignore ESG issues and only focus on profits implies that they shouldn’t be expected to exercise business judgment and self-restraint. This encourages corporate conduct at the margins of the law ignoring moral boundaries and leads to the need for more regulation to protect the public from bad corporate conduct.
A narrow focus on profit maximization encourages excessive risktaking sometimes with catastrophic effects on the economy. Government interventions after such market failures (for instance, the 2008 financial sector and auto industry bailouts) are far more “socialistic” than is a focus on sustainable corporate conduct.
Managers who embrace the narrow profit maximization norm are more likely to see themselves as individual profit maximizers, putting their own interests ahead of others. Encouraging such selfish behaviour erodes confidence in private enterprise.
Edward Waitzer is a lawyer, former chair of the Ontario Securities Commission and a Senior Fellow at the C. D. Howe Institute.
Profit maximization cannot diverge from reasonable public expectations and overall social welfare indefinitely. Concepts of fairness (which are undermined by excessive profit-taking and corporate misbehaviour) affect the way political systems interact with corporations. The stakes are high in a world in which geopolitical instability has become a danger to democracy and market capitalism. Authoritarianism (of the extreme left or right) is not a political environment in which most corporations or voters want to live.
In 2008, the Supreme Court of Canada made clear through its BCE decision that directors have a duty to act in the best interests of a corporation and, in doing so, may consider the impact of corporate decisions on shareholders and other stakeholders.
The Canada Business Corporations Act has since been amended to confirm that directors may consider the interests of shareholders, employees, retirees and pensioners, creditors, consumers and governments, the environment and the long-term interests of the corporation.
In hindsight, this amendment may have been undesirable. The Supreme Court’s decision was clear and deliberately broad. In specifying certain interests (and not others) the statutory amendment may have narrowed the scope of the Supreme Court’s decision and could encourage the polarizing ESG backlash.
Time will tell whether the court’s guidance will suffice or more robust enforcement mechanisms will be required. The immediate point is that once each side’s specific ESG issues are set aside, conservatives and liberals should encourage boards to continue to exercise their business judgment, devoid of partisanship, to address material risks that might harm the corporations and stakeholders they serve. The Supreme Court of Canada got that right some time ago.
Working Effectively with Your Board: A Program for Senior Executives is a two-day in-person experience that optimizes board interactions for organizational success. Attendees will gain a deeper understanding of management’s role, practical tools for engagement, and strategies to maximize boardroom effectiveness.
PROGRAM: June 16 - 17, 2025
APPLY BY: May 15, 2025
LOCATION: Rotman School of Management, Toronto
Adjunct Professor, Rotman School of Management, University of Toronto
Board Advisor and Educator at Fullbrook Board Effectiveness
How should AI be addressed at the board level?
Sue Paish
Sue Paish is the CEO of DIGITAL, leading an innovation portfolio that has leveraged $255-million to deliver $630-million in total investments in Canadian-led innovation. DIGITAL is driving transformation through AI-infused technologies, supporting the growth and success of Canadian companies. Paish serves on the boards of Telus International, Canadian Tire and Own the Podium.
AIis ubiquitous across industry and society. Think of AI as you would think of electricity it’s everywhere impacting society and industry, with risks and opportunities varying by sector and/or by initiatives in which an organization may be engaged. Boards need to understand both the impact, or potential impact, of AI on their organizations’ strategies and provide appropriate governance and oversight in this fast-moving area.
While the degree to which AI is having an immediate effect might vary from industry to industry, it is important for boards to discuss how AI is impacting their organization. Is AI a strategic threat, a strategic opportunity or both? For many industries, AI may also be an operational cornerstone. Understanding and providing governance oversight relative to AI goes to the core function of any board, especially in respect of overall strategy, acquisitions, new product lines, leadership development, workforce skills and future readiness.
More than 50 per cent of directors recently surveyed by Deloitte said that AI did not appear regularly on their board’s agenda. It’s important, however, for boards to receive briefs and be engaged
Comment les conseils devraient-ils aborder l’intelligence artificielle?
L’IA est présente à toutes les échelles de l’industrie et de la société. Envisagez-la de la même façon que l’électricité – qui est partout – influence l’industrie et la société, avec des risques et des opportunités qui varient selon les secteurs et/ou les initiatives dans lesquelles une organisation est susceptible d’être engagée. Les conseils doivent comprendre à la fois les impacts – ou les impacts potentiels – de l’IA sur la stratégie de l’organisation et fournir une gouvernance et une surveillance appropriées dans ce domaine en évolution rapide.
Même si l’immédiateté des effets de l’IA peut varier d’une industrie à l’autre, il est important pour un conseil de discuter de la façon dont elle affecte votre organisation. Représente-t-elle une menace stratégique, une opportunité stratégique ou les deux? Pour beaucoup d’industries, l’IA peut aussi s’avérer une
in discussions relative to the impact of AI on their strategy or key initiatives so that they develop an overall understanding of how AI impacts the business. So, how can directors best to achieve this?
Sue Paish est PDG de DIGITAL. À ce titre, elle dirige un portefeuille d’innovation qui a recueilli 255 millions $ pour générer des investissements totaux de 630 millions $ en innovations d’origine canadienne. DIGITAL suscite une transformation au moyen de technologies issues de l’IA, soutenant ainsi la croissance et le succès d’entreprises canadiennes. Mme Paish siège aux conseils de Telus International, Canadian Tire et Own the Podium.
AI does not need to be on every board meeting agenda. How you level up your own understanding of AI and that of your board depends in part on the sector and stage of AI adoption across the organization. If it’s critical to your core strategy, or to regulatory compliance or an ongoing project, then perhaps it should be on every agenda for a time. What’s important is that the board is aware of, and engaged with, AI at the right level. If you serve on the board of a health organization or company in the financial sector, for example, you will likely be engaged with AI in a more intense and regular way than boards of organizations in some other sectors. However, as every sector is affected by AI, every board needs to be informed and understand what the technology is and how it will impact the strategy and plans for the organization.
One particularly stunning finding in Deloitte’s report was that 79 per cent of the directors who responded said that they thought their board had limited, minimal or no knowledge or experience with AI. With AI evolving rapidly and impacting every company and industry, most boards would benefit from education, updates or training sessions.
There are a growing number of options on this front. AI education may include guest speakers, industry experts or targeted executive training programs. The organization I lead, Vancouver-based DIGITAL, Canada’s global innovation cluster for digital technologies, collaborates with other organizations to advance innovation and strengthen digital skills. One of our key partnerships is with the SFU Beedie School of Business on an initiative called DIAL. This program builds AI fluency for strategic decisionmaking while supporting real-world AI implementation tailored to specific industries.
Board education on AI is not a standalone topic, or a one-off session. Rather, it is best accomplished as a fundamental element of ongoing board knowledge-building relative to key elements or initiatives in the organization. And so, ‘who’ is best positioned at the board to provide oversight and guidance on AI? AI needs to be addressed in a strategic, cross-functional way, with the board working in coordination with management. The board committee
pierre angulaire opérationnelle. Le fait de comprendre et de fournir une surveillance de la gouvernance en matière d’IA est au cœur de la fonction du conseil, en particulier par rapport à la stratégie d’ensemble, aux acquisitions, aux nouvelles lignes de produits, au développement du leadership ainsi qu’aux compétences de la main-d’œuvre et à la préparation face à l’avenir.
Plus de cinquante pour cent des administrateurs récemment sondés par Deloitte ont avoué que l’IA ne figurait pas régulièrement à l’ordre du jour des réunions de leur conseil. Or il est important que les conseils reçoivent des documents qui en traitent et soient engagés dans des discussions relatives aux impacts de l’IA sur leur stratégie ou leurs principales initiatives de manière à développer une compréhension d’ensemble du phénomène. Comment réaliser cela?
L’IA ne doit pas nécessairement figurer à l’ordre du jour de chaque réunion du conseil. La façon dont vous élevez votre compréhension de la question et celle de votre conseil dépend en partie de votre secteur d’activité et du degré d’adoption de cette technologie à l’échelle de l’organisation. Si l’IA est essentielle à votre stratégie de base, à votre conformité réglementaire ou à un projet en cours, alors peut-être devrait-elle s’inscrire à l’ordre du jour de chaque réunion pendant un certain temps. Ce qui importe, c’est que le conseil connaisse l’IA et y soit engagé à un degré adéquat. Par exemple, si vous siégez au conseil d’une organisation de santé ou d’une entreprise du secteur financier, il est probable que vous y serez engagé de manière plus intense et régulière que les conseils d’organisations évoluant dans certains autres secteurs. Toutefois, comme chaque secteur est affecté par l’IA, chaque conseil doit être informé de la technologie et comprendre sa nature et la façon dont elle affectera la stratégie et les projets de l’organisation.
L’un des résultats particulièrement frappants de l’enquête de Deloitte est que 79 pour cent des répondants ont dit penser que leur conseil avait une connaissance et une expérience limitée, minimale ou nulle de l’IA. Dans le contexte d’une technologie qui évolue rapidement et affecte toute les entreprises et industries, la plupart des conseils profiteraient de cours, de mises à jour ou de séances de formation sur la question. Un nombre croissants d’options existent sur ce front. En matière de formation à l’IA, il y a des conférenciers, des experts de l’industrie ou des programmes de formation à l’intention de membres ciblés des équipes de direction. L’organisation que je dirige à Vancouver DIGITAL, la grappe canadienne d’innovation mondiale du Canada pour les technologies numériques collabore avec d’autres organisations pour promouvoir l’innovation et renforcer les compétences numériques. Un de nos partenariats principaux est mené avec la SFU Beedie School of Business autour d’une initiative appelée DIAL ou Developing Leaders for the IA-driven Digital Economy (Développer des leaders de l’économie numérique axée sur l’IA). Ce programme entend créer une aisance en matière d’intelligence artificielle en vue de la prise de décisions stratégiques tout en soutenant concrètement la mise en œuvre sur mesure de l’IA applicable à des industries spécifiques.
L’éducation du conseil en matière d’IA ne se résume pas à une question distincte ni à une séance unique. Il s’agit plutôt d’un élément fondamental dont la réussite repose sur l’acquisition continue par le conseil de connaissances relatives aux éléments ou initiatives clés au sein de l’organisation.
responsible for AI will depend on the organization. AI is an important element of risk mitigation, but it’s also a risk and opportunity in and of itself. AI touches privacy, data, security and ethics. Depending on the organization and any specific initiatives in play, AI may be in the domain of a governance committee or a risk management or audit committee. AI governance is not a one-sizefits-all topic. It does, however, provide the opportunity and imperative for a board to work in concert with management to both leverage and mitigate the impacts of this fast-evolving technology.
Donc, qui est le mieux positionné au conseil pour offrir de la surveillance et de l’orientation sur l’IA? Cette technologie doit être abordée de manière stratégique et pluridisciplinaire, le conseil et la direction travaillant en coordination. Le comité du conseil qui sera chargé de l’IA dépendra de l’organisation. La question est un élément important de l’atténuation du risque, mais il s’agit aussi en soi de risque et d’opportunité. L’IA relève à la fois de la vie privée, des données, de la sécurité et de l’éthique. En fonction de l’organisation et de toute initiative spécifique en jeu, l’IA peut relever du comité de gouvernance, de gestion du risque ou d’audit. La gouvernance de l’intelligence artificielle ne requiert pas une approche uniforme. Elle offre cependant l’opportunité et l’obligation pour un conseil de travailler de concert avec la direction pour à la fois exploiter et atténuer les impacts de cette technologie en évolution rapide.
Ron Cuthbertson
Ron Cuthbertson, ICD.D, serves on the board of Canada Post and has experience on both private and public boards. He is a veteran CEO and executive coach with more than 30 years’ experience in large and medium-sized domestic and international companies, with specific expertise in technology, retail and supply chain. He is the CEO and co-founder of a startup focused on sustainability and waste reduction and the beneficial applications of AI.
The explosive growth of artificial intelligence and its innovatively disruptive influence presents myriad considerations for directors, amongst which are both opportunities and risks. When a board of directors is addressing AI, there are several key areas they should focus on to ensure they are overseeing AI effectively and responsibly. Also, after understanding how AI fits into the company’s overall business model and long-term goals, there are some practical steps they should consider taking.
AI, especially technologies like machine learning, can pose ethical challenges. The board should ensure that AI initiatives align with the company’s ethical standards. Questions about bias, fairness, privacy and transparency should be top of mind. The board can help establish or review AI ethics guidelines, ensuring that AI applications are designed to avoid harm from things such as bias in algorithms or discrimination in automated decision-making.
Regularly reviewing and assessing AI-related risks can help mitigate unforeseen consequences. With AI, large amounts of data are often used, which raises concerns about data privacy, security and potential breaches. The board should be apprised of potential risks such as operational disruptions, misuse of AI, or job displacement due to automation, and ensure strong safeguards are in place.
I recommend boards consider creating a dedicated AI or technology oversight committee. This committee would monitor AI projects, review policies and ensure alignment with business objectives and legal standards. Given the pace of change and adoption, boards should ensure AI
La croissance explosive de l’intelligence artificielle et son influence perturbatrice présentent une myriade de considérations pour les administrateurs, lesquelles comportent à la fois des risques et des opportunités. Quand un conseil d’administration aborde la question de l’IA, il doit porter son attention sur plusieurs zones clés afin de s’assurer qu’il l’aborde de façon efficace et responsable. En outre, après avoir compris comment l’IA s’intègre au modèle d’affaires et aux objectifs à long terme de l’entreprise, les administrateurs devraient envisager de franchir un certain nombre d’étapes.
L’intelligence artificielle, en particulier les technologies telles que l’apprentissage machine, peut poser des problèmes éthiques. Le conseil devrait s’assurer que les initiatives découlant de son utilisation soient conformes aux normes éthiques de l’entreprise. Les questions relatives au biais, à l’équité, à la vie privée et à la transparence devraient figurer au sommet des priorités. Le conseil peut contribuer à l’établissement ou à la révision des lignes directrices en cette matière, afin de faire en sorte que les applications soient conçues de manière à éviter de causer des torts comme le biais dans les algorithmes ou la discrimination dans les processus de décision automatisés.
L’analyse et l’évaluation régulières des risques relatifs à l’IA peuvent contribuer à atténuer certaines conséquences imprévues. Avec l’IA, de vastes sommes de données sont souvent utilisées, ce qui
initiatives are integrated across key areas of the organization for cohesive execution and alignment. There may be legal implications of AI applications, especially concerning intellectual property liability and fairness. The board should stay informed on emerging laws and best practices, ensuring that AI initiatives comply with relevant regulations, such as data protection, privacy laws and industry-specific guidelines.
To implement AI effectively, companies often need significant investment in infrastructure, whether it’s data storage, computing power or software tools. The board should ensure that the company is allocating resources appropriately and establish key performance indicators (KPIs) for AI-related projects to ensure initiatives are delivering value and aligning with the company’s strategic goals.
Ron Cuthbertson, IAS.A, siège au conseil de Postes Canada et possède de l’expérience au sein de conseils d’organisations privées et publiques. Gestionnaire chevronné, il a occupé des postes de PDG et de coach exécutif pendant plus de 30 ans au sein de moyennes et grandes entreprises nationales et internationales, avec une expertise particulière en technologie, commerce de détail et chaîne logistique. Il est chef de la direction et cofondateur d’une entreprise en démarrage axée sur le développement durable, la réduction des déchets et les applications bénéfiques de l’intelligence artificielle.
soulève des inquiétudes à l’égard de possibles violations de la vie privée et de la sécurité. Le conseil devrait être informé des risques éventuels tels que les perturbations opérationnelles, le mauvais usage de l’IA ou les suppressions d’emplois dues à l’automatisation et faire en sorte que de solides balises soient mises en place.
AI can also help companies gain a competitive edge. To capitalize on potential opportunities the board could encourage innovation in AI, fostering an environment that explores new applications for AI in the business, from product development to customer service to process optimization. It’s also strategically advantageous for a board to recognize the importance of acquiring and retaining top AI talent including both technical experts and cross-disciplinary leaders.
Lastly, communication and stakeholder engagement around AI are critical to a board. AI can be polarizing, and how the company addresses AI publicly may influence its reputation. The board should ensure the company is proactively explaining how it is responsibly deploying AI with clear communication on how the company is using AI, particularly if AI is affecting customer experience, employment or safety.
For boards of directors, addressing these elements of AI is essential for both harnessing its potential benefits and mitigating its risks. By focusing on ethical considerations, data privacy, intellectual property, regulatory compliance, business model integration, talent management and governance, boards can help guide companies to leverage AI responsibly and strategically. Ultimately, well-managed AI initiatives can drive innovation, improve efficiency and provide a competitive advantage while minimizing risks.
Je recommande aux conseils d’envisager la création d’un comité chargé de la surveillance de l’IA ou de la technologie. Ce comité assurerait la supervision des projets d’IA, des politiques et ferait en sorte qu’ils soient conformes aux objectifs d’affaires et aux normes juridiques. Compte tenu du rythme d’adoption du changement, les conseils devraient s’assurer que les initiatives relatives à l’IA soient intégrées aux secteurs clés de l’organisation en vue d’une exécution et d’une harmonisation cohérentes. Les applications de l’intelligence artificielle peuvent aussi comporter des implications juridiques, en particulier concernant la responsabilité et l’équité à l’égard de la propriété intellectuelle. Le conseil devraient demeurer informé des lois et meilleures pratiques émergentes, pour faire en sorte que les initiatives d’IA soient conformes aux réglementations en vigueur, notamment sur la protection des données, les lois sur la protection de la vie privée et les lignes directrices spécifiques à l’industrie. Pour mettre en œuvre efficacement l’IA, les entreprises doivent souvent consentir des investissements importants en infrastructure, qu’il s’agisse de stockage des données, de capacité informatique ou d’outils logiciels. Le conseil devrait faire en sorte que l’entreprise y alloue les ressources de façon appropriée et établisse des indicateurs clés de performance pour tous les projets reliés à l’IA afin de s’assurer que les initiatives offrent de la valeur et soient conformes aux objectifs stratégiques de l’organisation.
L’intelligence artificielle peut aussi aider les entreprises à se doter d’un avantage concurrentiel. Pour capitaliser sur les opportunités potentielles à cet égard, le conseil pourrait encourage l’innovation en IA en stimulant un environnement qui explore de nouvelles applications dans l’entreprise, du développement de produit au service à la clientèle en passant par l’optimisation des processus. Il serait aussi stratégiquement avantageux pour le conseil de reconnaître l’importance d’acquérir et de retenir les meilleurs talents en IA, dont des experts techniques et des leaders multidisciplinaires.
Récemment, la communication et l’engagement auprès des parties prenantes ont pris une importance cruciale pour le conseil. L’IA peut s’avérer polarisante et la manière dont l’entreprise aborde la question en public peut influencer sa réputation. Le conseil devrait faire en sorte que l’organisation explique de façon proactive et claire comment elle déploie l’IA de manière responsable, en particulier si l’IA affecte l’expérience client, l’emploi ou la sécurité.
Pour les conseils d’administration, il est essentiel d’aborder ces éléments pour à la fois exploiter ses avantages potentiels et atténuer les risques qui peuvent y être associés. En portant attention aux considérations éthiques, à la confidentialité des données, à la propriété intellectuelle, à la conformité réglementaire, l’intégration du modèle d’affaires, la gestion du talent et la gouvernance, le conseil peut contribuer à guider l’organisation pour qu’elle exploite l’IA de façon responsable et stratégique. Ultimement, les initiatives d’IA bien gérées peuvent stimuler l’innovation, améliorer l’efficacité et offrir un avantage concurrentiel tout en minimisant les risques.
We've rapidly grown to become one of Canada's largest and most influential executive compensation consulting firms by delivering a differentiated consulting experience.
Director
Human Resources Committee toolkit
Regularly
With over 150 professionals in more than 15 o ces around the world, we help you make performance-enhancing and defensible compensation decisions in the best interests of your organization.
Written by SIMON AVERY
How does a banker land at the leading edge of artificial intelligence? Shauneen Bruder spent 35 years at Royal Bank of Canada, serving as executive vice-president of operations before retiring in 2019. Today, in addition to serving as chair of Canadian National Railway Co., she is a board member of the Vector Institute, Canada’s largest AI institute cofounded by Nobel Laureate Geoffrey Hinton, who remains Vector’s chief scientific advisor. The Toronto-based organization is recognized internationally for its AI research and helping businesses apply the technology. It is funded by the federal and provincial governments together with a consortium of private businesses. In a recent conversation with Director Journal, Bruder described the inevitability of an AI world and shared ideas for how big and small companies can embrace it.
As a seasoned bank executive, how did you make the transition to the realm of AI?
AI wasn’t unfamiliar to me at all. [At RBC] we were an early adopter of core process and transaction automation, which is kind of a precursor to what we’re seeing in AI. But beyond that, I’ve always understood that this technology has the potential to transform the way we work. It really is a transformational opportunity and for Canada in particular when you look at our productivity challenges across sectors to improve how we work, how we live, [and how we] solve complex problems.
One of the fundamental roles of directors is to understand, and be active and engaged in, strategy and enterprise risk oversight. It’s in that capacity that you start to tiptoe into this AI discussion and need to build your own competency as a director. Great directors have a lot of curiosity, and they are lifetime learners, and they ask great questions of leaders. And you don’t have to be an expert to ask great questions.
How do you find that outlook pairs with the director community? Is that what you’re seeing, or is there some hesitation with AI?
I think there is some trepidation. It’s a whole new taxonomy. It’s a whole new language. We don’t come to this world as technology experts, but we need to appreciate that boards have successfully navigated many technology transformations over the years. The fundamentals of good governance principles apply, and we know how to do this as directors. I think what’s different is AI is a transformational opportunity, and that can be a bit daunting. But the fundamentals of the director role in understanding the risks and the strategic opportunities are no different. No company or director, in my view, can fail to consider the implications of AI.
What advice can you give other directors, who may not have a lot of tech expertise, on how to approach AI?
I actually think it’s comforting to approach it in terms of our fundamental oversight goal. Regularly we review what our competitors are doing. [We ask] what are our critical and emerging enterprise risks? What’s our risk appetite? What’s our tone at the top and our culture around some of these things? We push management on the resourcing, the talent, the skills, the capacity of the corporation, these are all questions that we know how to ask. It is really part of our strategic and
Quelle est votre feuille de route en matière d'IA ?
Il est peut-être temps de poser les grandes questions à la direction.
Comment une banquière peut-elle se retrouver à l’avant-garde de l'intelligence artificielle ? Shauneen Bruder a passé 35 ans à la Banque Royale du Canada, où elle a occupé le poste de vice-présidente exécutive des opérations avant de prendre sa retraite en 2019. Aujourd'hui, en plus d'être présidente du conseil d'administration de la Compagnie des chemins de fer nationaux du Canada (CN Railway), elle est membre du conseil d'administration de l'Institut Vecteur, le plus grand institut d'intelligence artificielle du Canada, cofondé par le lauréat du prix Nobel Geoffrey Hinton, qui demeure le conseiller scientifique principal de Vecteur. L'organisation, située à Toronto, est reconnue internationalement pour ses recherches sur l'IA et pour l'aide qu'elle apporte aux entreprises dans l'application de cette technologie. Elle est financée par les gouvernements fédéral et provincial, ainsi que par un consortium d'entreprises privées. Lors d'un récent entretien avec Director Journal, Mme Bruder a décrit l’inévitabilité du monde de l'IA, en plus de nous faire part de ses idées sur la manière dont les grandes et petites entreprises peuvent l'adopter.
En tant que dirigeante de banque expérimentée, comment avez-vous fait la transition vers le domaine de l'IA ?
L'IA ne m'était pas du tout inconnue. [À RBC], nous avons été les premiers à adopter l'automatisation des processus et des opérations de base, qui est en quelque sorte le précurseur de ce que nous voyons dans l'IA. Mais au-delà de cela, j'ai toujours compris que cette technologie avait le potentiel de transformer notre façon de travailler. Il s'agit vraiment d'une opportunité de transformation et pour le Canada en particulier, si l'on considère nos défis en matière de productivité dans tous les secteurs pour améliorer notre façon de travailler, notre façon de vivre, [et notre façon de] résoudre des problèmes complexes. L'un des rôles fondamentaux des administrateurs est de comprendre la stratégie et la surveillance des risques de l'entreprise, et d'y participer activement. C'est à ce titre que l'on commence à s'immiscer dans le débat sur l'IA et que l'on doit développer ses propres compétences en tant qu'administrateur. Les grands administrateurs sont très curieux ; ils apprennent tout au long de leur vie et posent d'excellentes questions aux dirigeants. Et il n'est pas nécessaire d'être un expert pour poser de bonnes questions.
Comment trouvez-vous que cette perspective va de pair avec la communauté des administrateurs ? Est-ce que c'est ce que vous constatez, ou y a-t-il une certaine hésitation à l'égard de l'IA ? Je pense qu'il y a une certaine appréhension. Il s'agit d'une toute nouvelle taxonomie. C'est un tout nouveau langage. Nous n'arrivons pas dans ce monde en tant qu'experts en technologie, mais nous devons comprendre que les conseils d'administration ont réussi de nombreuses transformations technologiques au fil des ans. Les principes fondamentaux d’une bonne gouvernance s'appliquent, et nous savons comment procéder en tant qu'administrateurs. Je pense que ce qui est différent, c'est que l'IA est une opportunité de transformation, ce qui peut être un peu intimidant. Mais les principes fondamentaux du rôle de l'administrateur, qui consiste à comprendre les risques et les opportunités stratégiques, ne sont pas différents. Aucune
enterprise risk oversight. I think [it’s helpful] to approach AI that way. You can also ask for third-party support.
There are some other things that I’ve seen boards start to do like reviewing your competency matrix and asking whether you have the right technical expertise around the board table. Increasingly, technology literacy is becoming as important as financial literacy in terms of board competencies.
Does adding technical expertise to a board mean giving up some experience and bringing in young directors in their 30s, or is that going too far?
I don’t think the board should aspire to be an expert in the technical complexities of AI. I don’t think that’s necessary. I think the focus of the board should be on understanding the strategic implications and risks of AI. And for that, you don’t need deep domain expertise. You need more governance, strategic and risk oversight. It’s really important that boards understand that their role is oversight. It’s not management. They have to hold management accountable. They have to ask the right questions, but they’re not going to be technical experts, and they shouldn’t be.
Where do you draw the line between AI knowledge the board needs and information that’s best left to the computer scientists?
I think boards need to focus on three things: First, understanding the strategic impact [of AI] on business models and stakeholder value. And there’s an equal or greater risk of missing the strategic opportunity on this, because we tend to be overly indexed on the risks. Second, overseeing risk management and the governance frameworks, and holding management accountable for those. And third ensuring responsible implementation [of AI] that aligns with organizational values.
Does all of this lie at a particular committee level? Or does it need to be across the board?
It depends on the organization. My own bias is that AI is going to be so pervasive to most companies that you need to build a level of overall board literacy and accountability to understand the strategy and the risks.
What do you think the next phase of AI will be?
My view is that AI is going to become deeply integrated in everything we do. It’s going to become a pervasive capability, much like the
entreprise ni aucun administrateur ne peut, à mon avis, ne pas prendre en compte les implications de l'IA.
Quels conseils pourriez-vous donner à d'autres administrateurs, qui n'ont peut-être pas beaucoup d'expertise technologique, sur la façon d'aborder l'IA ?
En fait, je crois qu'il est plus rassurant de l'aborder sous l'angle de notre objectif fondamental en matière de surveillance. Nous examinons régulièrement ce que font nos concurrents. [Nous nous demandons] quels sont les risques critiques et émergents de notre entreprise ? Quelle est notre appétence pour le risque ? Quel est notre ton au sommet et quelle est notre culture par rapport à certains de ces éléments ? Nous poussons la direction à se pencher sur les ressources, les talents, les compétences, la capacité de l'entreprise, autant de questions que nous savons déjà poser. Cela fait vraiment partie de notre stratégie et de la surveillance des risques d'entreprise. Je pense [qu'il est utile] d'aborder l'IA de cette manière. Vous pouvez également demander l’aide d'un tiers.
Shauneen Bruder ICD.D
Chair of CN Railway
Director at the Vector Institute
Honorary Consul for Luxembourg in Toronto
Previous roles:
Chair of the Board of Governors, University of Guelph
Chair of the Canadian Chamber of Commerce
Chair of the Canadian American Business Council
Présidente de la Compagnie des chemins de fer nationaux du Canada (CN Railway)
Directrice de l'Institut Vecteur
Consul honoraire du Luxembourg à Toronto
Rôles précédents :
Présidente du conseil d'administration de l'Université de Guelph
Présidente de la Chambre de commerce du Canada
Présidente du Canadian American Business Council
Il y a d'autres choses que j'ai vu les conseils d'administration commencer à faire, comme revoir leur matrice de compétences et se demander s'ils disposent de la bonne expertise technique autour de la table du conseil d'administration. De plus en plus, les connaissances technologiques deviennent aussi importantes que les connaissances financières en termes de compétences du conseil d'administration.
L'ajout d'une expertise technique au sein d'un conseil d'administration implique-t-il de renoncer à une certaine expérience et de faire appel à de jeunes administrateurs d'une trentaine d'années, ou est-ce aller trop loin ?
Je ne pense pas que le conseil d'administration doive aspirer à devenir un expert des complexités techniques de l'IA. Je ne crois pas que cela soit nécessaire. Je pense que le conseil d'administration devrait se concentrer sur la compréhension des implications stratégiques et des risques de l'IA. Et pour cela, vous n'avez pas besoin d'une expertise approfondie du domaine. Il faut davantage de gouvernance, de surveillance stratégique et de contrôle de risques. Il est vraiment important que les conseils d'administration comprennent que leur rôle est de superviser. Ce n'est pas de la gestion. Ils doivent demander des comptes à la direction. Ils doivent poser les bonnes questions, mais ils ne seront pas des experts techniques et ils ne devraient pas l'être.
Où se situe la limite entre les connaissances en IA dont le conseil d'administration a besoin et les informations qu'il vaut mieux laisser aux informaticiens ?
Je pense que les conseils d'administration doivent se concentrer sur trois points. D’abord, comprendre l'impact stratégique [de l'IA] sur les modèles d'entreprise et la valeur
internet. It’s moving so fast no sector can ignore it. Each company has to ask management what immediate opportunities exist [for AI] to improve efficiency and effectiveness. It has to be business-led it can’t be technology for innovation’s sake. It has to be focused on solving business problems and then asking how could the competitive environment change?
Well, let’s take autonomous agents as an example. How close are those to becoming widespread in business?
No company or director, in my view, can fail to consider the implications of AI.
« À mon avis, aucune entreprise ni aucun administrateur ne peut ne pas prendre en compte les implications de l'IA. »
I can’t make predictions about autonomous agents, but I do think that we are seeing solutions that are allowing people to move beyond routine tasks, so it’s more of a collaborative application, as opposed to autonomous, discrete applications. Forward looking companies are using AI responsibly, and they’re investing in people so that AI is enhancing rather than replacing human potential. So, I think initial deployments are collaborative assists. They’re not autonomous. And I’m also seeing companies investing a lot in AI literacy to look at how you can accelerate business applications that leverage data to increase productivity.
We don’t have laws yet in Canada specifically directed at AI although the EU is further ahead. For boards that have to allocate capital, how delicate a walk is it investing in technology that may get pulled back by regulations? Similar to any new capability, it’s important for boards to ask management for their roadmap for AI adoption. Successful AI integration requires a comprehensive, strategic approach. It is ultimately going to be an organizational transformation, and like any big organizational change initiative, it’s going to need clear principles. It’s going to need broad literacy and adjusted governance and control mechanisms so that you can control for the unknowns.
Boards have to query management to understand the capabilities that are going to be required. You can’t approach this without the kind of a data environment and technology stack that is capable of supporting AI. So that’s the first bar, you need architecture maturity that ensures that your data can be consumed. You need to think about your talent how are you re-skilling your workforce? Do you have data scientists? Do you have PhDs in machine learning? Do you need them? Can you buy them? Can you use third parties? What’s your organizational culture for innovation and change, and the ability to move at the speed of AI, and what’s your governance and control environment? So those are legitimate
des parties prenantes. Il existe un risque égal ou supérieur de manquer l'opportunité stratégique dans ce domaine, car nous avons tendance à trop nous focaliser sur les risques. Ensuite, superviser la gestion des risques et les cadres de gouvernance, et tenir la direction responsable de ces éléments. Et finalement, veiller à une mise en œuvre responsable [de l'IA] qui s'aligne sur les valeurs de l'organisation.
Tout cela relève-t-il d'un comité particulier ? Ou cela doit-il s'appliquer à l'ensemble de l'organisation ?
Cela dépend de l'organisation. Je crois que l'IA sera tellement omniprésente dans la plupart des entreprises qu'il faudra que le conseil d'administration ait un niveau de connaissances et de responsabilités suffisant pour comprendre la stratégie et les risques.
Selon vous, quelle sera la prochaine phase de l'IA ?
Je crois que l'IA va être profondément intégrée dans tout ce que nous faisons. Elle va devenir une capacité omniprésente, à l'instar d'internet. Elle évolue si rapidement qu'aucun secteur ne peut l'ignorer.
Chaque entreprise doit demander à sa direction quelles sont les opportunités immédiates [pour l'IA] d'améliorer l'efficacité et l'efficience. Elle doit être pilotée par l'entreprise il ne peut s'agir de technologie pour le plaisir d'innover. Elle doit se concentrer sur la résolution de problèmes de l'entreprise et se demander par la suite ; comment l'environnement concurrentiel pourrait-il changer ?
Prenons l'exemple des agents autonomes. Dans quelle mesure ces agents sont-ils sur le point de se répandre dans les entreprises ?
Je ne peux pas faire de prédictions sur les agents autonomes, mais je crois que nous voyons des solutions qui permettent aux gens d'aller au-delà des tâches routinières, de sorte qu'il s'agit davantage d'une application collaborative que d'applications autonomes et discrètes. Les entreprises tournées vers l'avenir utilisent l'IA de manière responsable et investissent dans le personnel afin que l'IA renforce le potentiel humain au lieu de le remplacer. Je pense donc que les premiers déploiements sont des aides à la collaboration. Ils ne sont pas autonomes. Je constate également que les entreprises investissent beaucoup dans la maîtrise de l'IA afin de déterminer comment accélérer les applications commerciales qui exploitent les données pour accroître la productivité.
Au Canada, nous n'avons pas encore de lois spécifiquement axées sur l'IA — bien que l'UE soit plus avancée. Pour les conseils d'administration qui doivent allouer des capitaux, est-il délicat d'investir dans une technologie qui pourrait être freinée par des réglementations ?
Comme pour toute nouvelle capacité, il est important que les conseils d'administration demandent à la direction sa feuille de route pour l'adoption de l'IA. Une intégration réussie de l'IA nécessite une approche stratégique globale. Il s'agira en fin de compte d'une transformation organisationnelle et, comme pour toute grande initiative de changement organisationnel, il faudra des principes clairs. Elle nécessitera une large sensibilisation et des mécanismes de gouvernance et de contrôle adaptés afin de pouvoir maîtriser les inconnues. Les conseils d'administration doivent interroger la direction pour comprendre les capacités qui seront nécessaires. Il est impossible d'aborder cette
questions for the board to make sure that the company is ready to address the risks.
What do you consider to be some of the best practices used in AI deployment right now?
In terms of best practices, especially for small companies, you can do some testing and learning in small deployments. You know the quality of the data is critical. You’ve got to keep a human in the loop. I would not use AI for any critical decisions at this point. I think companies with complex safety and financial risks really need to proceed carefully because the stakes are higher.
Do you have any specific guidance for small and medium-sized businesses?
Increasingly, technology literacy is becoming as important as financial literacy in terms of board competencies.
« De plus en plus, la culture technologique devient aussi importante que la culture financière en termes de compétences du conseil d'administration. »
The Vector Institute and its sister organizations [the Montreal Institute for Learning Algorithms (MILA) and the Alberta Machine Intelligence Institute (Amii)] can help. Vector, for example, has a program called Fast Lane that’s helped more than 250 companies implement AI solutions such as customer support engines, search engines and reservation engines.
Does the Vector Institute work with large enterprises too?
Yes, Vector offers partnership opportunities that include access to talent, professional development programming if you want to develop AI literacy within your organization and [the chance] to tap into leading-edge research and development coming out of universities.
You mentioned that you wouldn’t want to use AI for any critical decision making at this point. What advancements would you need to see to increase your comfort level there? You’ve got to be certain of the quality of your data, the quality of your business models, the ability of your technology to eliminate bias, and the quality of your control environment. I wouldn’t deploy [AI] for diagnostics in health care, for example, without a human in the loop. You need a second set of eyes on this in order to really use AI for life-critical decisions. You would want an extraordinary level of 99.9999 per cent confidence in your models. And you know, as a director, I certainly wouldn’t suggest that I’ve seen that kind of confidence yet.
The terms “artificial general intelligence” and “superintelligence” are getting thrown around a lot?
question sans disposer d'un environnement de données et d'un ensemble de technologies capables de prendre en charge l'IA. C'est donc la première barre ; vous avez besoin d'une maturité d'architecture qui garantit que vos données peuvent être consommées. Vous devez aussi penser à vos talents comment vous requalifiez votre main-d'œuvre ? Avez-vous des scientifiques de données ? Avez-vous des docteurs en apprentissage automatique ? En avez-vous besoin ? Pouvez-vous les acheter ? Pouvez-vous faire appel à des tiers ? Quelle est votre culture organisationnelle pour l'innovation et le changement, et la capacité d'évoluer à la vitesse de l'IA, et quel est votre environnement de gouvernance et de contrôle ? Ce sont donc des questions légitimes pour le conseil d'administration afin de s'assurer que l'entreprise est prête à faire face aux risques.
Quelles sont, d’après vous, les meilleures pratiques utilisées dans le déploiement de l'IA à l'heure actuelle ?
En termes de meilleures pratiques, en particulier pour les petites entreprises, vous pouvez faire des tests et apprendre dans le cadre de petits déploiements. Vous savez que la qualité des données est essentielle. Il faut garder un être humain dans la boucle. Pour l'instant, je n'utiliserais pas l'IA pour prendre des décisions critiques. Je crois que les entreprises confrontées à des risques financiers et de sécurité complexes doivent procéder avec prudence, car les enjeux sont plus importants.
Avez-vous des conseils spécifiques à donner aux petites et moyennes entreprises ?
L'Institut Vecteur et ses organisations sœurs [l'Institut québécois d’intelligence artificielle ou MILA, et l'Alberta Machine Intelligence Institute (Amii)] peuvent les aider. Vector, par exemple, a un programme nommé Fast Lane qui a aidé plus de 250 entreprises à mettre en œuvre des solutions d'IA telles que des moteurs de soutien à la clientèle, des moteurs de recherche et des moteurs de réservation.
L'Institut Vector travaille-t-il également avec les grandes entreprises ?
Oui, Vector offre des possibilités de partenariat qui comprennent l'accès aux talents, des programmes de développement professionnel si vous souhaitez développer des compétences en matière d'IA au sein de votre organisation et [la possibilité] de tirer parti de la recherche et du développement de pointe réalisés par les universités.
Vous avez mentionné que vous ne souhaiteriez pas utiliser l'IA pour la prise de décisions critiques à ce stade. Quelles sont les avancées dont vous auriez besoin pour vous sentir plus à l'aise dans ce domaine ?
Vous devez être certain de la qualité de vos données, de la qualité de vos modèles commerciaux, de la capacité de votre technologie à éliminer les biais et de la qualité de votre environnement de contrôle. Je ne déploierais pas [l'IA] pour des diagnostics dans le domaine de la santé, par exemple, sans qu'il y ait un humain d’impliqué dans le processus. Il est nécessaire de disposer d'une
Should they be part of the discussion right now, or are they more conceptual?
I think boards create more value right now by ensuring that their organizations have the right principles, the right literacy, the right governance instruction and structures in place to handle AI developments as they emerge, and then you hold management accountable for those regular strategic horizon scans [to stay] competitive.
Canadian companies are facing criticism for their slowness to adopt AI. What’s your assessment of the situation in Canada?
We know Canada is behind. I think it’s never been more important when you look at our productivity and competitive challenges. So Canadian companies have to get AI right. They have to capture the opportunity, and they have to make sure that they safely and responsibly use AI. The greatest risk is that we miss out on the opportunity and its economic and social benefits. We know how to manage the risks. I think we need to capture the opportunity.
When you say “miss out,” do you mean the train is leaving the station, or can businesses legitimately hold back, see what others do, and then leap ahead?
Canadian universities produce more AI talent [than most countries], and we need to hold on to that talent. We need to deploy it nationally. We need to make sure that the infrastructure is there. Canada doesn’t have enough [computing power] relative to what other countries are investing in to support the large language models, both their development and their use. So yes, there is [a legitimate concern] that we will miss out and get left behind, or won’t be in control of our own destiny if we don’t invest in retaining the extraordinary talent that we produce, in supporting businesses so we don’t lose them to other environments when they reach a level of maturity, and in making sure that we’ve got the infrastructure in place to support AI.
Where does the drive to adopt AI need to come from?
The government gets blamed a lot, but ultimately, it’s boards that are in charge of capital deployment. It’s back to the fundamental role that boards have to oversee strategy and risk. When you talk about missing out on opportunities, that’s a strategic question that boards need to be asking management. How are you thinking about leveraging the opportunities of AI? Where can you deploy it, for efficiency, for effectiveness? What are our competitors doing? What are the trends? Those are governance oversight questions that Canadian boards need to be asking. Organizations have a lot of competition for where to deploy capital, but it needs to be dictated by some of these medium and longer-term strategic questions.
deuxième paire d'yeux pour pouvoir réellement utiliser l'IA dans le cadre de décisions vitales. Il faudrait un extraordinaire niveau de confiance de 99,9999 % dans vos modèles. Et vous savez, en tant que directrice, je ne dirais pas que j'ai déjà vu ce genre de confiance jusqu’ici.
Les termes « intelligence générale artificielle » et « superintelligence » sont souvent utilisés. Devraient-ils faire partie de la discussion dès maintenant, ou sont-ils plus conceptuels ?
Je pense que les conseils d'administration créent plus de valeur en ce moment en s'assurant que leurs organisations ont les bons principes, la bonne culture, les bonnes instructions et structures de gouvernance en place pour gérer les développements de l'IA au fur et à mesure qu'ils émergent, puis en demandant à la direction de rendre compte de ces analyses stratégiques régulières [pour rester] compétitives.
Les entreprises canadiennes sont critiquées pour leur lenteur à adopter l'IA. Quelle est votre évaluation de la situation au Canada ?
Nous savons que le Canada est en retard. Je pense que cela n'a jamais été aussi important si l'on considère nos défis en matière de productivité et de compétitivité. Les entreprises canadiennes doivent donc bien maîtriser l'IA. Elles doivent saisir l'opportunité et s'assurer qu'elles utilisent l'IA de manière sûre et responsable. Le plus grand risque est de passer à côté de cette opportunité et de ses avantages économiques et sociaux. Nous savons comment gérer les risques. Je pense que nous devons saisir l'occasion.
Lorsque vous dites « passer à côté », voulez-vous dire que le train quitte la gare ou que les entreprises peuvent légitimement attendre pour voir ce que les autres font avant de faire un bond en avant ?
Les universités canadiennes produisent plus de talents en IA [que la plupart des pays], et nous devons conserver ces talents. Nous devons les déployer à l'échelle nationale. Nous devons nous assurer que l'infrastructure est là. Le Canada ne dispose pas d'une [puissance informatique] suffisante par rapport à ce que d'autres pays investissent pour soutenir les grands modèles de langage, tant au niveau de leur développement que de leur utilisation. Alors oui, il y a [une inquiétude légitime] que nous manquions le coche et que nous soyons distancés, ou que nous ne soyons pas maîtres de notre propre destin – si nous n'investissons pas pour retenir les talents extraordinaires que nous produisons, pour soutenir les entreprises afin de ne pas les perdre au profit d'autres environnements lorsqu'elles atteignent un certain niveau de maturité, et pour nous assurer que nous disposons de l'infrastructure nécessaire pour soutenir l’IA.
D'où doit venir la volonté d'adopter l'IA ? Le gouvernement est souvent blâmé, mais en fin de compte, ce sont les conseils d'administration qui sont responsables du déploiement des capitaux. Nous en revenons au rôle fondamental des conseils d'administration, qui est de superviser la stratégie et les risques. Lorsque vous parlez de manquer des opportunités, c'est une question stratégique que les conseils d'administration doivent poser à la direction. Comment envisagez-vous de tirer parti des possibilités offertes par l'IA ? Où pouvez-vous la déployer pour plus d'efficacité ? Que font nos concurrents ? Quelles sont les tendances ? Ce sont là des questions de surveillance de la gouvernance que les conseils d'administration canadiens doivent poser. Les organisations se livrent une vive concurrence pour savoir où déployer leurs capitaux, mais cela doit être dicté par certains de ces objectifs stratégiques à moyen et à long terme.
Today’s Board: Resilient by design.
JUNE 3-4, 2025 / EDMONTON
Join the ICD at the Annual Fellowship Awards Gala in Edmonton to celebrate directors who exemplify excellence in corporate governance.
The evening Gala will honour the 2025 Fellows, recognized for their outstanding contributions to board governance leadership.
Mary Cameron, ICD.D Chair of Habitat for Humanity International, Vanderwell Contractors Advisory Board, and Director of AltaML, and CHL
Real Raymond
Former Chair of Metro Inc., Heroux Devtek Inc., Montreal Airport and, past Director of National Bank of Canada, SunLife Financial Inc., CPDQ
Hubert T. Lacroix, BCL, ICD.D Chair of Stornoway Diamond Corporation, Solmax Group Inc. and AXiO Health Group, and Director of Cascades Inc., Sojecci Ltd, the Canadian Olympic Committee, and the Villa Sainte-Marcelline Foundation
Kate Stevenson, ICD.D Chair of CIBC, and Director of Open Text Corporation, and Unity Health
ICD NATIONAL DIRECTOR CONFERENCE & FELLOWSHIP AWARDS GALA SPONSORS
PATRON
CONFERENCE PATRON
SPECIAL EARLY BIRD RATES AVAILABLE UNTIL FEBRUARY 21, 2025. REGISTER NOW AT CONFERENCE.ICD.CA/2025
As companies around the world race to keep up with artificial intelligence, many Canadian businesses are just getting started. Distinguishing between the buzz and the benefits is half the battle, Prasanthi Vasanthakumar writes
01110010 01100101 00100000 01100001 01110010 01100101 00100000 01110100 01101000 01100101 00100000 01110010 01101111
01100010 01101111 01110100 01110011 00111111
‘Where are the robots?’
She may have been half-joking when she asked this question, but Manuela Veloso is dead serious about the power of artificial intelligence agents. The head of AI research at JPMorgan Chase shared her vision of autonomous AI agents that can say and do things without human assistance at a conference in January. These agents, for example, can automatically schedule a meeting with 20 attendees, eliminating the need for a human to coordinate with multiple people to find a suitable time. “I fight for and this is a bit strange not talking with people,” Veloso told the audience of business leaders at Charter Work Inc.’s Leading with AI Summit in New York City. “There is nothing we should do that is directly with a human, unless it’s having dinner.”
Veloso’s vision may seem like science fiction, but it foreshadows a seismic shift in how we work and play. In fact, technological and consulting firm Gartner predicts autonomous AI agents will make 15 per cent of day-to-day business decisions by 2028 up from zero per cent in 2024.
These agents were reportedly the talk of the town at Davos this year. However, industry insiders at the World Economic Forum’s annual gathering also admitted that businesses were struggling to use artificial intelligence, especially outside marketing, customer service and coding. That’s because, as history shows, deploying technological breakthroughs doesn’t guarantee quick profits.
Au moment où partout dans le monde les entreprises tentent de tenir le rythme de l’intelligence artificielle, plusieurs organisations canadiennes n’en sont qu’à leurs débuts. Faire la distinction entre l’engouement du moment et les avantages de l’IA représente la moitié de la bataille, écrit Prasanthi Vasanthakumar
Où sont les robots? Elle ne plaisantait sans doute qu’à moitié quand elle a posé la question, mais Manuela Veloso est absolument sérieuse quand elle parle du pouvoir des agents de l’intelligence artificielle. Lors d’une conférence tenue en janvier, la dirigeante de la recherche en IA chez JPMorgan Chase a partagé sa vision d’agents d’IA autonomes capables de dire et de faire des choses sans assistance humaine. Ces agents, par exemple, peuvent automatiquement planifier une réunion de 20 participants, éliminant ainsi la nécessité qu’un être humain se coordonne avec plusieurs personnes pour trouver un moment approprié. « Ça peut sembler quelque peu étrange, mais je me bats pour ne pas avoir à parler aux gens, a déclaré Mme Veloso à un parterre de leaders d’affaires lors du sommet ‘Leading with AI’ organisé à New York par la firme Charter Work. Nous ne devrions avoir rien à faire directement avec un être humain, à moins que ce soit autour d’un repas. »
La vision de Mme Veloso peut ressembler à de la science-fiction, mais elle préfigure un changement de dimension d’ordre sismique dans la façon dont nous travaillons et nous distrayons. En fait, la firme de technologie et
EMILE SAYEGH has a pro tip for business leaders: Don’t put “AI” in your name. Much like the dot-com-in-yourname fad of the early 2000s, it will soon sound outdated, he writes in Forbes. In spite of the growing trend of AI-washing falsely advertising or exaggerating the use of artificial intelligence to attract investors or customers the technology is genuinely driving value in many areas.
The former board director at Ntirety Inc. and past chair at Codero, two tech firms in
Austin, Texas, Sayegh tells Director Journal he sees the best returns on AI in threat detection and cybersecurity, fraud detection in financial services, customer service, and predictive analysis and supply chain inventory management.
AI is also transforming the legal profession. Jonathan Watson, chief technology officer at Clio, a Vancouverbased legal software firm, says 79 per cent of legal professionals are using AI to some degree. Artificial intelligence can help law firms manage rote work like time logs, billing, notes and document review in a matter of minutes tasks that can take humans hours. For law firms that bill by the hour, the
technology can be a game changer. However, Watson observes that concerns about accuracy and confidentiality critical factors in the practice of law can discourage AI use. Nonetheless, he sees law firms hiring innovators and tech experts to ensure secure adoption and to stay competitive.
AI is undoubtedly showing returns in some areas, but it can be misused in others. In Sayegh’s view, some search engines overuse AI because many users simply want direct links for reference instead of an AI-generated summary. And when a website or piece of content is entirely AI-generated, it can also tarnish a brand. “It’s
01000001 01001001 00100000 01101001 01101110 00100000 01100001 01100011 01110100 01101001 01101111 01101110 00111010 00100000 00001010 01010100 01101000 01100101 00100000 01100111 01101111 01101111 01100100 00101100 00100000 01110100 01101000 01100101 00100000 01100010 01100001 01100100 00100000 01100001 01101110 01100100 00100000 01110100 01101000 01100101 00100000 01110101 01100111 01101100 01111001
googledygook,” Sayegh says. “Yes, it’s about 90 per cent accurate but the 10 per cent is egregious, it looks like it was written and developed by AI, and it just doesn’t have the nuances that a human being would have.”
That’s why Sayegh urges boards to ensure policies are in place to prevent plagiarism and reckless use.
‘Forever and always, Canada has been slow to adopt technology. This isn’t new to AI.’
« De toute éternité, le Canada a été lent à adopter la technologie. Ce n’est pas un phénomène particulier à l’IA. »
Nicole Janssen, board director, Council of Canadian Innovators
If businesses around the world are slow to capitalize on AI, Canadian companies may be moving at a crawl. “Forever and always, Canada has been slow to adopt technology,” says Nicole Janssen, a board director at the Council of Canadian Innovators and at Edmonton Unlimited, the city’s innovation agency. “This isn’t new to AI.”
The co-founder and co-CEO of AltaML, an Edmonton-based developer of AI-powered solutions, is still shocked by the stark differences between many Canadian and American businesses.
“The moment a U.S. company starts talking to us, they’re telling everyone and their dog that they’re doing AI,” Janssen says. “In Canada, it’s very different. It’s ‘Don’t tell anybody we don’t want anybody to get upset with us.’ There seems to be a lot of fear around AI.”
Janssen’s sales cycles alone are a tell: it typically takes 18 months to close the deal with Canadian clients compared to just four months with Americans.
But U.S. companies don’t have the perfect approach, either. Emile Sayegh, a senior advisor and CEO partner at Texas-based Tritium Partners and a former corporate director and chair at several American tech companies, notes that many board members are “not super tech-savvy,” but are gripped by a fear of missing out. This anxiety can lead to boards ordering management teams to adopt AI, much as they did in the past with cloud and cybersecurity mandates, Sayegh says.
Janssen has also observed this fervour in some U.S. boards. In their zeal to beat the competition, these directors don’t always take the time to educate themselves and understand how to probe decisions properly. As AI regulations are evolving, boards can’t rely on them to catch problems, she says.
de consultation Gartner prédit que les agents d’IA autonomes prendront 15 pour cent des décisions d’affaires quotidiennes d’ici 2028 par rapport à zéro en 2024.
Ces agents ont été apparemment le grand sujet de conversation cette année à Davos. Toutefois, les initiés qui participaient à la réunion annuelle du Forum économique mondial ont aussi convenu que des entreprises avaient du mal à utiliser l’intelligence artificielle, en particulier hors des champs du marketing, du service à la clientèle et du codage. C’est parce que, comme l’histoire le démontre, le déploiement de percées technologiques ne garantit pas de profits rapides.
Si les entreprises de par le monde sont lentes à capitaliser sur l’IA, les compagnies canadiennes risquent d’avoir de la difficulté à le faire. « De toute éternité, le Canada a été lent à adopter la technologie, souligne Nicole Janssen, qui siège au Conseil canadien des innovateurs et chez Edmonton Unlimited, l’agence d’innovation de la ville. Ce n’est pas un phénomène particulier à l’IA. »
Co-fondatrice et co-PDG d’AltaML, un développeur de solutions basées sur l’IA établi à Edmonton, Mme Janssen n’en revient toujours pas des différences flagrantes entre bien des entreprises canadiennes et américaines.
« Aussitôt qu’un représentant d’entreprise commence à parler, il dit à tout le monde et à son père qu’il fait dans l’IA, dit-elle. Au Canada, c’est très différent. C’est : ‘Ne le dis à personne On ne veut inquiéter personne.’ Il semble y avoir beaucoup de peur autour de l’IA. »
Les cycles de vente de Nicole Janssen à eux seuls en disent long : elle met généralement 18 mois à conclure une affaire avec des clients canadiens, comparé à seulement quatre mois avec les Américains.
Mais les entreprises américaines n’ont pas non plus l’approche parfaite. Emile Sayegh, conseiller principal et associé au chef de la direction chez Tritium Partners, une compagnie du Texas, et ancien administrateur de sociétés et président du conseil d’entreprises technologiques américaines, fait remarquer que beaucoup de membres du conseil ne sont pas « superavisés en matière de technologie », mais ont une immense peur de manquer le bateau. Cette anxiété peut mener les conseils à ordonner aux équipes de direction d’adopter l’IA, autant qu’ils l’ont fait dans le passé avec l’infonuagique et les mandats de sécurité informatique.
Mme Janssen a aussi observé un tel zèle chez certains conseils américains. Dans leur désir de vaincre la concurrence, ces administrateurs ne prennent pas toujours le temps de se former et de comprendre la manière appropriée d’examiner les tenants et aboutissants de leurs décisions. À mesure que la réglementation évolue, les conseils ne peuvent s’en remettre à celle-ci pour saisir les problèmes, dit-elle.
Bien sûr, le Canada est à l’autre extrémité du spectre. ‘Je ne saurais vous dire combien de conseils et de dirigeants j’ai formés. J’ai même créé des feuilles de route de tous les cas d’utilisation de l’IA avec des chiffres clairs sur les rendements du capital investi, dit-elle. Et ces gens répondaient : ‘Rappelez-nous dans un an. On en reparlera à ce moment-là.’ »
Mme Janssen présume qu’une telle inertie découle d’une économie moins concurrentielle et plus régulée. Les monopoles n’ont pas besoin d’innover, explique-t-elle.
To be sure, Canada is on the other side of the spectrum. “I can’t tell you how many boards and executives I’ve educated, and even created roadmaps of all the [AI] use cases with very clear ROI [return on investment],” she says. “And then they say, ‘Call us in a year, we’ll talk more then.’”
Janssen speculates this inertia stems from an economy with less competition and more regulation. Monopolies don’t need to innovate, she says.
But Canada’s well-documented productivity crisis suggests something has to change. Indeed, a recent report by the Public Policy Forum, a not-for-profit think tank, suggests AI’s impact on the country’s productivity growth will depend on the speed and extent of uptake by organizations. If AI adoption ramps up, TD Economics estimates Canada’s GDP could rise by five to eight per cent in 10 years relative to baseline projections.
That’s why Nicholas Darveau-Garneau is urging Canadian companies to move faster. The corporate director and entrepreneur says AI is the most important technology he has seen in his lifetime. But because it’s improving so rapidly, companies that don’t start their AI journeys now will get left behind.
“There’s an AI emergency in Canada,” says DarveauGarneau. “We have to get going. Looking at this, studying it, having a committee and not starting use cases is just not an option for Canadian organizations.”
But how to get going? While many companies may want to adopt AI, distinguishing between the hype and reality can be difficult.
Boards and executives should “essentially ignore the news,” says Janssen. Because AI is changing fast, it’s easy to get caught up in the latest and greatest advances. However, many businesses have yet to adopt traditional AI technologies. Janssen finds that much of the hype today is around generative AI because ChatGPT has given people access in a way that wasn’t possible before. When she talks to companies for the first time, they often start with Gen AI because that’s what they know. But older AI technologies such as computer vision and deep learning can solve many problems. In fact, Janssen has delivered more than 400 AI-powered solutions for companies using traditional AI. Looking back, she estimates she may have tackled just one per cent of those cases slightly differently now that Gen AI is available. That’s why she advises companies to stop chasing the shiny new objects. “There’s so much low-hanging fruit that already exists with proven methodologies,” she says.
Darveau-Garneau recommends starting with a business problem, such as high customer churn, and seeing if AI can help solve it. In his view, there’s no such thing as an AI strategy, so companies should avoid spending time and money on getting their data in order and then figuring out next steps. “There’s no like, We’re going to get into AI,’” says
‘We have to get going. Looking at this, studying it, having a committee and not starting use cases is just not an option for Canadian organizations.’
« Nous devons nous mettre au travail. L’envisager, l’étudier, créer un comité sans commencer à l’utiliser n’est pas une option pour les organisations canadiennes. »
Nicholas Darveau-Garneau, corporate director
Mais la crise de productivité bien documentée du Canada suggère que quelque chose doit changer. En effet, un rapport récent publié par le Forum des politiques publiques, un groupe de réflexion à but non lucratif, suggère que l’impact de l’IA sur la productivité du pays dépendra de la rapidité et de l’ampleur de son utilisation par les organisations. Si l’adoption de l’IA s’accroît, les Services économiques TD estiment que le PIB du Canada pourrait augmenter de cinq à huit pour cent d’ici dix ans par rapport aux projections de base.
Voilà pourquoi Nicholas Darveau-Garneau enjoint les entreprises canadiennes à bouger rapidement. L’administrateur de sociétés et entrepreneur affirme que l’IA est la technologie la plus importante qu’il a vue au cours de sa vie. Mais parce qu’elle s’améliore si rapidement, les entreprises qui n’entament pas leur parcours dès maintenant traîneront de la patte.
Il y a une urgence d’adopter l’IA au Canada, soutient M. Darveau-Garneau. Nous devons nous mettre au travail. L’envisager, l’étudier, créer un comité sans commencer à l’utiliser n’est pas une option pour les organisations canadiennes. »
Mais comment démarrer? Alors que bien des entreprises souhaitent adopter l’IA, la distinction entre l’engouement et la réalité peut s’avérer difficile. Les conseils et les dirigeants devraient « essentiellement ignorer les nouvelles », dit Mme Janssen. Parce que l’IA change rapidement, il est facile de se laisser emporter par les plus récentes et les plus grandes avancées. Toutefois, beaucoup d’entreprises n’ont pas encore adopté des technologies traditionnelles d’IA.
Elle trouve qu’une bonne partie de l’engouement qu’on constate de nos jours tourne autour de l’IA générative parce que ChatGPT a permis aux gens d’y accéder d’une manière qui n’était pas possible auparavant. Quand elle entre en contact avec une entreprise, cela commence généralement
01001100 00100111
01001001 01000001
00100000 01100101
01101110 00100000
01100001 01100011
01110100 01101001
01101111 01101110
00100000 00111010
00100000 00001010
01001100 01100101
00100000 01100010
01101111 01101110
00101100 00100000
01101100 01100101
00100000 01101101
01100001 01110101
01110110 01100001
01101001 01110011
00100000 01100101
01110100 00100000
01101100 01100101
00100000 01101100
01100001 01101001 01100100
L’IA en action : le bon, le mauvais et le laid
EMILE SAYEGH suggère un truc aux leaders d’affaires : ne mettez pas « IA » dans votre raison sociale. Tout comme la mode passagère du point-com au début des années 2000, cela aura l’air rapidement dépassé, a-t-il écrit dans la revue Forbes. En dépit d’une tendance croissante à la promotion trompeuse de l’IA qui consiste à faire de la fausse publicité ou à exagérer l’usage de l’intelligence artificielle pour attirer les investisseurs ou les clients cette technologie génère véritablement de la valeur dans plusieurs domaines.
L’ancien membre du conseil de Ntirely Inc. et ancien président du conseil de Codero, deux entreprises technologiques d’Austin au Texas, a déclaré au Director Journal qu’il constate les
meilleurs rendements sur l’IA dans la détection des menaces et la sécurité informatique, la détection des fraudes dans les services financiers, le service à la clientèle et l’analyse prédictive ainsi que la gestion d’inventaire de la chaîne logistique.
L’IA transforme également la profession juridique.
Jonathan Watson, chef des services technologiques chez Clio, une firme de logiciels juridiques établie à Vancouver, affirme que 79 pour cent des professionnels du droit utilisent l’IA à divers degrés. L’intelligence artificielle peut aider les cabinets juridiques à gérer en quelques minutes les tâches routinières telles que les relevés d’heures, la facturation, les notes et l’examen des documents lesquelles peuvent prendre
des heures pour un être humain. Pour les cabinets juridiques qui facturent à l’heure, la technologie peut changer la vie.
Toutefois, M. Watson fait remarquer que les inquiétudes concernant l’exactitude et la confidentialité des facteurs cruciaux dans la pratique du droit peuvent décourager l’utilisation de l’IA. Il n’en constate pas moins l’embauche par des cabinets d’innovateurs et d’experts en technologie pour s’assurer d’une adoption sécuritaire de l’IA et demeurer concurrentiels.
L’IA offre sans aucun doute des rendements dans certains domaines, mais elle peut aussi être mal utilisée dans d’autres. Selon M. Sayegh, certains moteurs de recherche recourent abusivement à l’intelligence
artificielle parce que beaucoup d’utilisateurs désirent simplement obtenir des liens direct pour référence plutôt que des résumés générés par l’IA. Et quand un site Web ou un document est entièrement généré par l’IA, il peut aussi ternir une marque de commerce. « C’est du charabia, assure-t-il. Oui, environ 90 pour cent du contenu est exact, mais les 10 pour cent restants sont inintelligibles. On dirait qu’ils ont été écrits et élaborés par l’IA et n’offrent tout simplement pas les nuances qu’un être humain apporterait. »
Voilà pourquoi M. Sayegh enjoint les conseils à faire en sorte que des politiques soient mises de l’avant pour prévenir le plagiat et l’utilisation irresponsable de l’IA.
‘The places where [AI] is driving the most value right now are some of the most boring parts of companies you can imagine.’
« Les zones où l’IA génère le plus de valeur présentement sont les plus ennuyeuses qu’on puisse imaginer dans les entreprises. »
Jared Spataro, Microsoft, at the Leading with AI Summit
Darveau-Garneau. “It’s more like, ‘Can AI solve our most important business problems?’”
Boards and CEOs should also look at what’s working for companies around the world. “Don’t go into a big brainstorming session trying to figure out use cases,” he says. “Start with things that you know have already worked for others. Be a fast follower of AI If a company in your industry somewhere in Singapore has been talking about this amazing thing they did with AI, that’s a use case you should consider.”
Sayegh agrees that trying to find the big ideas for AI is unwise. Instead, a business can first build a data lake that contains all its information, from win and close rates to employee sentiment. When a language model is applied to this data lake, the company essentially has its own proprietary AI engine, Sayegh says. It can benefit from its private data instead of using outside AI tools that rely on public data. “That’s where the true power of AI is going to come in,” he says.
But it’s a double-edged sword. Boards must ensure the data lake as the “crown jewels of the company” is secure and compliant. “If somebody hacks into it, that’s the end of the company,” Sayegh says.
One of the biggest mistakes companies can make is going too big, too fast, says Darveau-Garneau. Pursuing customer-facing AI solutions right off the bat before doing proper testing and putting solid governance in place carries reputational and financial risk.
Instead, he recommends business leaders start with lowrisk solutions, even if the return on investment is not high. Low-risk cases include internal functions like corporate
par l’IA générative parce c’est ce que les gens connaissent. Mais les technologies plus anciennes d’IA comme la vision par ordinateur et l’apprentissage profond peuvent déjà régler bien des problèmes. En fait, Mme Janssen a livré plus de 400 solutions basées sur l’IA pour des entreprises qui utilisent l’IA traditionnelle. En rétrospective, elle estime qu’elle aurait pu s’attaquer à seulement un pour cent de ces cas de façon légèrement différente, maintenant que l’IA générative est disponible. C’est pourquoi elle conseille aux entreprises de cesser d’être à la poursuite de nouveaux objets brillants. « Il y a tellement de fruits qui existent déjà dans les branches les plus basses et leurs technologies sont éprouvées », assure-t-elle.
M. Darveau-Garneau recommande de commencer par un problème d’affaires, par exemple une perte élevée de clientèle, et de voir comment l’IA peut contribuer à y remédier. Selon lui, il n’existe pas une telle chose qu’une stratégie d’IA, de telle sorte que les entreprises devraient éviter de consacrer du temps et de l’argent à mettre de l’ordre dans leurs données pour ensuite imaginer les prochaines étapes. « Il ne s’agit pas de décider de recourir à l’IA, dit-il, mais plutôt de se demander comment l’IA peut régler nos problèmes d’affaires les plus importants. »
Les conseils et les PDG devraient aussi examiner ce qui fonctionne pour les entreprises de par le monde. « Ne vous engagez pas dans de grandes séances de réflexion pour tenter d’imaginer des cas d’utilisation, dit-il. Commencez par des choses dont vous savez qu’elles ont déjà fonctionné pour d’autres. Soyez un ‘suiveur rapide’ de l’IA Si une entreprise dans votre industrie quelque part à Singapour s’est exprimée à propos de cette chose extraordinaire qu’elle a réalisée avec l’IA, voilà un cas d’utilisation que vous devriez envisager. »
M. Sayegh admet que d’essayer de trouver les grandes idées en matière d’IA est peu judicieux. Une entreprise pourrait plutôt, dans un premier temps, bâtir un réservoir de données qui contient toutes ses informations, depuis les taux de réussite et de marchés conclus jusqu’aux sentiments de ses employés. Quand un modèle de langage est appliqué à ce réservoir de données, l’entreprise dispose essentiellement de son propre moteur exclusif d’IA, affirme-t-il. Elle peut profiter de ses données privées plutôt que d’utiliser des outils d’IA externes s’appuyant sur des données publiques. « C’est là que se trouve le véritable pouvoir de l’IA », explique-t-il.
Mais il s’agit là d’une arme à double tranchant. Les conseils doivent s’assurer que ces données en tant que « joyaux de la couronne de l’entreprise » soient protégées et conformes. « Si quelqu’un les pirate, c’est la fin de l’entreprise », prévient-il.
L’une des plus graves erreurs qu’une entreprise puisse commettre est de grossir trop rapidement, affirme M. Darveau-Garneau. La poursuite immédiate de solutions d’IA axées sur la clientèle avant même d’avoir procédé aux essais pertinents et mis en place une solide gouvernance comporte des risques réputationnels et financiers.
Il recommande plutôt aux leaders d’affaires de commencer par des solutions à faible risque, même si le retour sur l’investissement n’est pas élevé. Parmi les cas à faible risque, citons notamment des fonctions internes comme la formation pour entreprise et le recrutement. Même une chose aussi simple que l’utilisation de l’IA pour générer des sommaires de nouvelles est un bon début, dit-il. « Emmagasinez quelques gains, conseille-t-il.
ICD courses, developed for directors by directors, provide a personalized and interactive learning journey. Engage in live online instructor-led sessions and connect with a dynamic alumni community for continuous growth and support. For ICD.D designation holders, these courses reinforce your commitment to excellence.
ISSUES OVERSIGHT
OVERSIGHT OF CYBERSECURITY IN AN ERA OF DIGITAL ACCELERATION.
THE ROLE OF THE BOARD IN CYBER RESILIENCE
Develop greater insight and understanding of cybersecurity risks in an age of rapid technological advancements.
ONLINE APPLY BY:
April 23, 2025 April 2, 2025
Developed with:
BOARD FUNDAMENTALS
HUMAN RESOURCE & COMPENSATION COMMITTEE EFFECTIVENESS
OPTIMIZE THE BOARD’S UNDERSTANDING OF HUMAN CAPITAL OVERSIGHT
Understand the considerations of talent management, CEO succession planning and executive compensation, as well as increased scrutiny of these issues by stakeholders.
ONLINE May 8, 2025
APPLY BY: April 17, 2025
ISSUES OVERSIGHT
BOARD OVERSIGHT OF ARTIFICIAL INTELLIGENCE.
AI OVERSIGHT IN THE BOARDROOM
Understand how to effectively navigate the complexities of AI and drive confident boardroom discussions on AI's impact, risks, and opportunities.
ONLINE APPLY BY:
May 22, 2025 May 1, 2025
Developed with:
BOARD FUNDAMENTALS
ENTERPRISE RISK OVERSIGHT FOR DIRECTORS
NAVIGATING THE MODERN RISK LANDSCAPE
Understand how to better identify and address critical risks, how risks are interconnected and recognize the potential compounding effects of risks.
ONLINE May 27, 2025 APPLY BY: May 6, 2025
TO ELEVATE YOUR DIRECTORSHIP IN 2025, VISIT EDUCATION.ICD.CA/CALENDAR25
Not sure which course is the right fit for you? Email consult@icd.ca for a personal consultation.
DIRECTOR EFFECTIVENESS
CROWN DIRECTOR EFFECTIVENESS.
PRACTICAL PRINCIPLES AND STRATEGIES FOR CROWN DIRECTOR EFFECTIVENESS
Discover the unique circumstances and challenges that exist when serving on the board of government-controlled entities.
ONLINE APPLY BY:
May 6, 2025 April 15, 2025
BOARD FUNDAMENTALS
BOARDROOM FINANCIAL ESSENTIALS.
THE ROLE OF THE BOARD IN FINANCIAL OVERSIGHT
Advance your financial knowledge so you can confidently make sound financial decisions.
ONLINE June 11, 2025 APPLY BY: May 21, 2025
training and recruiting. Even something as simple as using AI to generate daily news summaries for employees is a good place to start, he says. “Get some wins under your belt,” Darveau-Garneau says. “Then you can ask the question, ‘What use cases will have the best return?’”
Some companies also mistakenly think that one AI project is going to transform their business, says Janssen. In reality, many small AI projects tackle a labour-intensive part of a process, making it easier, faster and more accurate.
The lack of solid AI regulations is another reason to avoid big, flashy projects. Janssen has seen companies pursue projects they may come to regret because draft regulations suggest these initiatives could be constrained. “If you take on the small, unsexy projects, that’s where you’re going to get your ROI,” she says. “You’re going to be able to maintain that ROI and not scrap that project when regulations are in place.”
“Unsexy” is also where Jared Spataro is seeing returns. At the AI summit in New York in January, Microsoft’s chief marketing officer of AI at work described how Dow is using artificial intelligence to review shipping invoices and find inconsistencies cognitive work that is difficult for humans to do at scale. The company expects to save tens of millions of dollars within the first 12 months alone. “The places where [AI] is driving the most value right now are some of the most boring parts of companies you can imagine,” Spataro told the audience.
As business leaders figure out how best to use AI, DarveauGarneau and Janssen have a few reminders. First, don’t assume AI is IT. Leaders in information technology make sure everything is safe and secure, but they aren’t necessarily the innovators, Janssen says. To understand the business problem and identify where AI can help, she prefers to work with business unit owners, whether that’s a department head or a middle manager. These individuals understand where the bottlenecks are and can surface the most valuable ways AI can help.
Second, don’t get in trouble. Any use of AI in a company must have policies and rules, says Darveau-Garneau. While Canada doesn’t yet have an official AI regulatory framework, boards can minimize risks by looking at international standards and consulting with AI governance specialists in the country.
Third, ensure employee training. Darveau-Garneau refers to a study by Harvard Business School and Boston Consulting Group that found when ChatGPT was appropriately used, consultants produced 12 per cent more work in 25 per cent less time with 40 per cent better quality. However, when consultants misused the tool, they were 19 per cent more likely to come up with wrong answers. “There’s no magical productivity improvement with AI,” he says. “It just comes with a lot of work picking the right tools and training employees to use these tools really well.”
Puis posez-vous la question de savoir quels sont les cas d’utilisation qui offriront le meilleur rendement. »
Certains croient aussi à tort qu’un seul projet d’IA va transformer leur entreprise, souligne Mme Janssen. En réalité, beaucoup de petits projets d’IA s’attaquent à la partie à forte intensité de main-d’œuvre d’un processus, pour rendre le travail plus facile, plus rapide et plus précis.
L’absence d’une réglementation solide est une autre raison d’éviter les projets massifs et tape-à-l’œil. Mme Janssen a vu des entreprises poursuivre des projets qu’elles pourraient regretter parce que les projets de règlement suggèrent que ces initiatives pourraient être restreintes. « Si vous entreprenez des projets de moindre dimension, peu attirants, c’est là que vous obtiendrez vos rendements, dit-elle. Vous serez alors en mesure de maintenir ces rendements et de ne pas abandonner ce projet lorsque la réglementation sera en vigueur. »
C’est aussi dans ce genre de projet peu attirant que Jared Spataro obtient des rendements. Lors d’un sommet sur l’IA tenu à New York en janvier, le directeur général du marketing chez Microsoft a décrit comment Dow utilise l’intelligence artificielle pour revoir les factures d’expédition et dénicher des incohérences une tâche cognitive difficile à accomplir à grande échelle. L’entreprise espère économiser des dizaines de millions de dollars au cours des seuls douze premiers mois. « Les zones où l’IA génère le plus de valeur présentement sont les plus ennuyeuses qu’on puisse imaginer dans les entreprises », a déclaré M. Spataro à l’auditoire.
Au moment où les leaders d’affaires sont à déterminer comment le mieux utiliser l’IA au sein de leurs organisations, M. Darveau-Garneau et Mme Janssen proposent quelques rappels.
D’abord, ne présumez pas que l’IA est une TI. Les leaders en technologie de l’information font en sorte que tout soit sûr et sécuritaire, mais ils ne sont pas nécessairement des innovateurs, souligne Nicole Janssen. Pour comprendre un problème d’affaire et identifier en quoi l’IA peut être utilisée à bon escient, elle préfère travailler avec les gestionnaires de l’unité d’affaires concernée – qu’il s’agisse du chef de département ou d’un cadre intermédiaire. Ces personnes savent où sont les problèmes et peuvent imaginer les meilleurs moyens d’utiliser efficacement l’IA.
Deuxièmement, ne vous attirez pas d’ennuis. Toute utilisation de l’IA dans une entreprise doit être soumise à des politiques et à des règles, explique M. Darveau-Garneau. Même si le Canada n’a toujours pas de cadre réglementaire gouvernant l’IA, les conseils peuvent minimiser les risques en examinant les normes internationales et en consultant des spécialistes de la gouvernance au pays.
Enfin, assurez que vos employés soient formés. M. Darveau-Garneau évoque à cet égard une étude menée par la Harvard Business School et le Boston Consulting Group qui indique que lorsque ChatGPT était bien utilisé, les consultants ont produit un volume de travail de 12 pour cent supérieur en 25 pour cent moins de temps avec une qualité supérieure de 40 pour cent. Toutefois, quand les consultants ont mal utilisé cet outil, ils avaient 19 pour cent de chances d’obtenir de mauvaises réponses. « Il n’y a pas d’amélioration magique de la productivité avec l’IA, dit-il. Cela se produit avec beaucoup de travail pour choisir les outils adéquats et la formation nécessaire pour que les employés les utilisent vraiment bien.
Without a strong oil and gas industry, we’d all get less for our dollar.
Canadians rely on imports like fresh produce and electronics, and our broader economy depends on exports to other countries. Without oil and gas exports, Canada would run an enormous trade deficit, resulting in a weaker dollar and driving up the cost of imported goods. At a time when life is becoming increasingly una ordable for many, a strong oil and gas sector protects our dollar.
Learn more at cenovus.com
Written by JEFF BUCKSTEIN
Illustrations by CHAD GERAN
The rapid advancement of artificial intelligence has added yet another layer of complexity and challenge to the myriad oversight responsibilities heaped on the plate of contemporary directors.
“Boards are facing mounting pressure from multiple stakeholders to strengthen AI governance,” says Jodie Lobana, managing director of Lobana Consulting Group Inc. in Toronto.
Directors are under increasing scrutiny from shareholders, customers and employees, who are becoming more aware of both the potential and risks associated with AI. As a result, stakeholders are demanding greater transparency, accountability and stronger board oversight, says Lobana, who chairs the advisory board of the McMaster AI Society and is a recent past board member of the International Internal Audit Standards Board.
“Boards must take a holistic approach to AI governance, starting with their own training, appointing the right CEO or chief AI officer, defining a clear AI strategy and vision for the next two to three years, and ensuring resources are allocated for systematic AI deployment,” she says.
One of the best ways to confront the giant AI challenge is to break it down into smaller pieces. Directors have three key
Pendant que les conseils tentent de comprendre l’IA, les lois
Une surveillance efficace de l’IA exige un mélange de formation, d’innovation et de responsabilité
L’évolution rapide de l’intelligence artificielle a ajouté une autre couche de complexité et de défi aux innombrables responsabilités de surveillance que doivent assumer les administrateurs aujourd’hui.
« Les conseils subissent une pression croissante de la part de multiples parties prenantes pour renforcer la gouvernance de l’IA », explique Jodie Lobana, directrice générale de Lobana Consulting Group Inc. de Toronto.
Les administrateurs font l’objet d’une surveillance croissante de la part des actionnaires, des clients et des employés, qui sont de plus en plus conscients du potentiel et des risques associés à l’IA. En conséquence, les parties prenantes exigent une plus grande transparence, une meilleure reddition de comptes et une surveillance accrue de la part du conseil, poursuit Mme Lobana, qui préside le conseil consultatif de la McMaster AI Society en plus d’avoir été récemment administratrice du Conseil international des normes d’audit interne.
‘None of the boards I know right now are specifically requiring AI knowledge when they get a new director.’
« Aucun des conseils que je connais n’exige en ce moment d’un nouvel administrateur une connaissance de l’intelligence artificielle spécifiquement »
— Estelle Métayer,
president, Competia
roles and responsibilities with respect to AI, says Estelle Métayer, president of Competia, a strategic consultancy based in Montreal, and a board member with Audemars Piguet, headquartered in Geneva.
First, they need to ensure that the organization’s AI strategy is tightly linked with its overall strategy. Second, they must oversee compliance with regulations and industry standards, as well as setting or approving ethical guidelines. Third, they have to make sure the organization has the ability to attract and retain the necessary talent, Métayer says, while reskilling and training the entire organization for AI.
Individual committees can play an important role. Audit committees, for example, have an increasing role around compliance and internal controls, as in examining the reputational or disclosure risks that AI can pose, says Métayer, who also serves on the board of the Turkish-based autoparts supplier Martur Fompak and is former chair of Montreal-based Nortera, a food processing and marketing company.
“None of the boards I know right now are specifically requiring AI knowledge when they get a new director. Boards are focusing more on saying. ‘How can I have all the directors build up their knowledge and expertise in AI?’” she adds .
The first thing that boards need to be aware of is exactly how AI works, and how that affects their existing processes, says Jillian Frank, a partner with KPMG LLP in Vancouver, and national lead of the firm’s legal transformation team.
« Les conseils doivent adopter une approche holistique de la gouvernance de l’IA, à commencer par la formation de leurs membres, la nomination d’un PDG adéquat ou d’un membre de la direction responsable de l’IA, la définition d’une stratégie claire en la matière et d’une vision échelonnée sur les deux ou trois prochaines années, en plus de faire en sorte que les ressources soient allouées pour un déploiement systématique de l’IA », dit-elle.
L’un des meilleurs moyens de faire face au défi géant de l’intelligence artificielle consiste à le diviser en plus petits morceaux. Les administrateurs ont trois rôles et responsabilités clés à jouer en ce qui concerne l’IA, affirme
Estelle Métayer, présidente de Competia, une société de conseil stratégique établie à Montréal, et membre du conseil d’Audemars Piguet, dont le siège social est situé à Genève.
D’abord, les administrateurs doivent faire en sorte que la stratégie d’IA de l’organisation soit étroitement liée à sa stratégie d’ensemble. Deuxièmement, ils doivent superviser la conformité avec la réglementation et les normes de l’industrie, en plus d’établir ou d’approuver les lignes directrices en matière d’éthique. Enfin, ils doivent s’assurer que l’organisation soit dotée de la capacité d’attirer et de retenir le talent nécessaire, tout en actualisant les compétences et en formant l’ensemble de l’organisation en IA, dit-elle.
Les comités individuels peuvent jouer un rôle important à cet égard. Par exemple, le comité d’audit du conseil a une responsabilité croissante en matière de conformité et de contrôles internes, notamment en examinant les risques réputationnels ou relatifs à la divulgation que l’IA peut poser, soutient Mme Métayer, qui siège également au conseil de fournisseur turc de pièces d’automobile Martur Fompak et a aussi été présidente du conseil de Nortera, une firme montréalaise de transformation alimentaire.
« Aucun des conseils que je connais présentement n’exige en ce moment d’un nouvel administrateur une connaissance de l’intelligence artificielle spécifiquement, explique-t-elle. Les conseils portent davantage attention à la manière dont chacun de leurs membres est en mesure d’acquérir des connaissances et de construire une expertise en IA. »
La première chose dont les conseils doivent être conscients est la façon dont l’IA fonctionne et comment elle affecte les processus existants, soutient Jillian Frank, associée et leader nationale, Transformation juridique, technologie et services gérés chez KPMG LLP à Vancouver.
KPMG recommande que les conseils fassent plus de formation et accroissent leur littératie en IA. « Je pense qu’il est crucial pour les membres du conseil d’ajuster leurs connaissances quant à ce que ces outils peuvent faire et d’ensuite réunir ce groupe multidisciplinaire dont ils ont besoin pour leur fournir des conseils. »
Même les entreprises déjà dotées de processus de protection de la vie privée et de sécurité informatique doivent prendre conscience que leur degré de risque devient élevé parce que l’IA utilise beaucoup plus de données et qu’elle les traite de façon différente d’autres applications ou technologies.
En plus de préserver leur entreprise des cyber-attaques, les conseils doivent s’assurer que l’information demeure confidentielle et que les décisions automatisées soient prises de façon non discriminatoire. « Il y a un risque plus élevé de biais en IA, donc c’est une chose dont il faut être conscient », ajoute Mme Frank.
Carole Piovesan, associée principale chez INQ Law à Toronto, indique qu’elle ne voit pas encore de conseils qui exigent de leurs administrateurs une connaissance spécifique de l’IA et/ou de l’expérience dans ce domaine.
KPMG recommends boards take more AI training and increase their AI literacy, she says. “I think it’s critical for board members to get up to speed on what these tools do, and then bring together that cross-functional group of team members they need to provide them with advice.”
Even companies with privacy or cybersecurity processes in place need to realize that their risk becomes elevated because AI uses much more data and processes it in a different way than other applications or technology might, she adds.
In addition to keeping their company secure from cyberattacks, boards must ensure information is kept confidential, and automated decisions are being made in a non-discriminatory fashion. “There is a higher risk of bias in AI, so that’s something they have to be mindful of,” says Frank.
Carole Piovesan, managing partner of INQ Law in Toronto, says she is not yet seeing boards requiring that directors have specific knowledge and/or experience with AI. “But I am seeing that almost every major board is demanding more profound AI education,” she adds, noting that many are holding retreats with management and outside experts to assess AI opportunities and risks.
There are no federal AI laws in Canada that specifically instruct directors. The closest piece of legislation to target AI specifically is the proposed Artificial Intelligence and Data Act (AIDA), which was announced as part of the Digital Charter
« Mais je constate que presque tous les conseils d’organisations importantes exigent une formation plus approfondie en IA », ajoute-t-elle, soulignant que plusieurs tiennent des retraites fermées avec la direction et des experts de l’extérieur pour évaluer les opportunités et les risques de l’IA.
Il n’existe pas de loi fédérale sur l’intelligence artificielle au Canada qui s’adresse spécifiquement aux administrateurs. Le texte législatif qui cible de plus près l’IA est la Loi sur l’intelligence artificielle et les données (LIAD), annoncée dans le cadre de la Loi de 2022 sur la mise en œuvre de la Charte numérique. Toutefois, après avoir été adoptée en deuxième lecture par la Chambre des communes, elle a été abandonnée lors de la prorogation des travaux parlementaires en janvier.
La législation devra être présentée à nouveau avant de devenir loi, mais avec une élection fédérale qui devrait être déclenchée peu après le retour en Chambre à la fin du mois de mars, une loi sur l’IA est peu susceptible d’être étudiée avant qu’un nouveau Parlement siège. Mais bien que la LIAD n’ait pas été adoptée, les entreprises peuvent bénéficier de ses orientations, assure Mme Lobana.
En outre, le « Guide sur l’utilisation de l’intelligence artificielle générative », publié par le gouvernement du Canada, propose des meilleures pratiques pour les institutions fédérales, mais n’est pas juridiquement contraignant. Il s’appuie sur les principes « PRETES » d’une utilisation Pertinente, Responsable, Équitable, Transparente, Éclairée et Sécurisée pour promouvoir un usage responsable et éthique de l’IA.
Une autre ressource potentielle en la matière est le code de conduite volontaire publié par Ottawa en 2023 et appelé « Développement et gestion
Implementation Act in 2022. However, after receiving second reading in the House of Commons, it was shelved when Parliament prorogued in January.
The legislation will need to be reintroduced before it can become law, but with a federal election call expected soon after Parliament reconvenes at the end of March, AI legislation is unlikely to proceed until the new Parliament is seated. Although AIDA hasn’t passed, corporations can still benefit from its guidance, Lobana says.
In addition, the Government of Canada’s recently posted guide on the use of generative AI provides best practices for federal institutions, but is not legally binding. It emphasizes the “FASTER” principles - fairness, accountability, security, transparency, education and relevance - to promote responsible and ethical AI use, she adds.
Another potential resource is the “Voluntary Code of Conduct on the Responsible Development and Management of Advanced Generative AI Systems,” released by Ottawa in 2023. According to KPMG’s Frank, it can help boards think about the ethical and responsible use of AI, and also about where they need to improve their own AI knowledge.
Organizations must comply, however, with existing data regulations, such as the federal Personal Information Protection and Electronic Documents Act (PIPEDA), which governs privacy and data practices relevant to AI development.
In addition, Canada’s anti-discrimination legislation includes protection against biased decision making in using AI systems, Frank says. “There is also the common law in Canada that requires board members to exercise their fiduciary duty, and for management to exercise a duty of care toward their employees [and] customers.”
“It remains to be seen, because AI is quite new, exactly how that will apply to an organization. But I think it’s something for boards to be aware of so they’re making decisions that are responsible, that are meeting the duty of care, [and] are a reasonable standard for how AI is being used when it has a higher impact on customers, on employees and on others in their communities.”
Various provinces have existing privacy legislation that can also be applied to AI with respect to how personal information can be used and processed.
In Ontario, the new Strengthening Cyber Security and Building Trust in the Public Sector Act has provisions on privacy, cybersecurity and AI governance for public sector entities.
“We also have in Ontario the Trustworthy Artificial Intelligence framework. It provides guidance to Ontario-based companies as to what it means to have a trustworthy AI framework in place. We might see more provinces step in to regulate aspects of AI where the feds are not doing so,” INQ Law’s Piovesan says.
‘Keeping up to speed with the technology as it’s being developed, and trying to build legislation at the same time has been challenging.’
« Tenir le rythme de la technologie pendant qu’elle se développe et tenter du même souffle de créer des lois est une entreprise difficile. »
Jillian Frank, partner, KPMG
responsable des systèmes d’IA générative avancés ». Ce document peut aider les conseils à réfléchir à une utilisation éthique et responsable de l’IA et aux domaines particuliers nécessitant une amélioration de leurs connaissances en IA, explique Mme Frank.
Les organisations doivent toutefois se conformer aux réglementations existantes sur les données, dont la Loi sur la protection des renseignements personnel et les documents électroniques (LPRPDE), qui gouverne les pratiques en matière de renseignements personnels et de données relevant du développement de l’IA.
De plus, la législation canadienne anti-discrimination comporte une protection contre une prise de décision biaisée par l’utilisation de système d’IA, ajoute-t-elle.
« Il y a aussi le droit coutumier au Canada qui exige des administrateurs qu’ils exercent leur obligation fiduciaire et des membres de la direction qu’ils exercent une obligation de diligence envers leurs employés et leurs clients », souligne-t-elle.
« Il reste à voir exactement – puisque l’IA est un phénomène tout à fait nouveau – comment cela s’appliquera à une organisation. Mais je crois que c’est une chose dont les conseils doivent être conscients, afin qu’ils prennent des décisions qui soient responsables, diligentes et représentent une norme raisonnable quant à la manière dont l’IA est utilisée quand elle a un impact élevé sur les clients, les employés et dans la communauté », conclut Mme Frank.
Diverses provinces ont adopté des lois sur la protection de la vie privée qui peuvent aussi s’appliquer à l’IA quant à la manière dont les informations personnelles peuvent être utilisées et traitées.
Also in Ontario, says Frank, the Working for Workers Four Act has provisions covering AI recruitment whereby employers are obligated to disclose their use of AI to screen, select and assess applicants when hiring for publicly advertised positions.
In Quebec, lawmakers have modernized personal information protection by regulating automated decision-making systems that process personal data. Inspired by the European Union’s General Data Protection Regulation, amendments to Quebec’s Law 25 prioritize transparency, accountability and individual rights, Lobana says.
Meanwhile, last year Manitoba passed the Intimate Image Protection Amendment Act to address the growing concern of deepfakes. This law, she adds, expands the definition of intimate images to include AI-generated content, ensuring stronger protections against their misuse.
The international gold standard for AI laws is widely considered to be the European Union’s Artificial Intelligence Act, which came into effect last year. It adopts a risk-based approach, categorizing AI systems based on their potential impact on health, safety and fundamental rights, Lobana says.
“Some AI systems are classified as unacceptably high risk and are prohibited, including social scoring by governments, real-time remote biometric identification in public spaces, with limited exceptions, and AI systems that exploit vulnerable populations, such as children,” she adds.
The AI Act stretches across the EU “in much more detail than what (Canada’s) AIDA ever proposed to do,” says Piovesan. “But conceptually both are risk-based laws that seek to put in place measures associated with high-risk or high-impact uses of AI. In that sense, they are somewhat aligned.”
The EU also has its General Data Protection Regulation, which gives individuals the right to have their data deleted and requires companies that retain personal information to explain why they do so, says Métayer.
The cost for non-compliance is very expensive, she adds. “You can pay up to 4 per cent of your entire global revenues if you don’t comply, and a few companies have been fined.”
Furthermore, the Corporate Sustainability Due Diligence Directive, under the EU’s New Green Deal, requires companies to begin reporting on data privacy in 2026 and 2027. “So, if you’re a Canadian company with more than €150-million of revenue in Europe, you have to comply in those jurisdictions and therefore you might as well do it for the entire company,” says Métayer.
Similar to Canada, the United States does not have a comprehensive federal AI law. The United States had two proposed federal laws touching on AI that failed to pass. Individual states
En Ontario, la toute récente Loi de 2024 visant à renforcer la cybersécurité et la confiance dans le secteur public comprend des dispositions sur la protection de la vie privée, la sécurité informatique et la gouvernance de l’IA pour les entités du secteur public.
« Nous avons aussi en Ontario le Cadre pour la fiabilité de l’intelligence artificielle, souligne Mme Piovesan, qui offre une orientation pour les entreprises ontariennes sur ce que signifie l’existence d’un cadre de l’IA digne de confiance. On devrait voir davantage de provinces réglementer certains aspects de l’IA dans des zones où le fédéral ne le fait pas. »
Également en Ontario, la Loi de 2024 visant à œuvrer pour les travailleurs comprend des dispositions couvrant le recrutement en IA en vertu de laquelle les employeurs sont tenus de divulguer leur utilisation de l’IA pour filtrer, sélectionner et évaluer des candidats à des postes annoncés publiquement, signale Mme Frank.
Au Québec, les législateurs ont modernisé la protection des renseignements personnels en réglementant les systèmes de prise de décision traitant des données personnelles. Inspirés par le Règlement général sur la protection des données de l’Union européenne, les amendements à la loi 25 du Québec accordent la priorité à la transparence, la reddition de comptes et les droits individuels, souligne Mme Lobana.
Entre-temps, le Manitoba a adopté l’an dernier la Loi modifiant la Loi sur la protection des images intimes pour répondre aux inquiétudes croissantes concernant les fausses images intimes. Cette pièce législative élargit la définition des images intimes pour y inclure le contenu généré par l’IA et offrir une meilleure protection contre leur utilisation.
L’étalon-or international des lois sur l’intelligence artificielle est largement considéré comme étant la Loi européenne sur l’intelligence artificielle, entrée en vigueur l’an dernier. Cette législation adopte une approche fondée sur le risque en catégorisant les systèmes d’IA selon leur impact potentiel sur la santé, la sécurité et les droits fondamentaux, explique Mme Lobana.
« Certains systèmes d’IA sont classés comme étant à risque élevé et inacceptables et sont donc prohibés, y compris la notation sociale par les gouvernements, l’identification biométrique à distance en temps réel dans les espaces publics, avec des exceptions limitées, et des systèmes d’IA qui exploitent les populations vulnérables, dont les enfants », indique-t-elle.
La loi en question couvre l’ensemble des pays de l’UE « de façon beaucoup plus détaillée que ce que la LIAD a jamais proposé de faire, souligne Mme Piovesan. Mais de manière conceptuelle, ce sont toutes les deux des législations fondées sur le risque qui cherchent à instaurer des mesures associées à une utilisation à risque ou à impact élevé de l’IA. En ce sens, elle sont en quelque sorte alignées. »
L’Union européenne a aussi adopté le Règlement général sur la protection des données, qui donne aux personnes le droit de faire disparaître les données les concernant et exige des entreprises qui conservent des renseignements personnels d’expliquer les raisons pour lesquelles elle le font, note Mme Métayer.
Le coût de non-conformité est très lourd. « On peut avoir à verser jusqu’à quatre pour cent de ses revenus globaux si on ne se conforme pas à la réglementation et quelques entreprises ont déjà été mises à l’amende.»
such as Colorado, Utah and California have passed AI laws, however, and others, like Washington state, have begun to propose laws, Piovesan says.
A company’s legal team can help its directors navigate through applicable jurisdictional legislation, Métayer says.
She also says there is immense pressure on senior management from some boards to move more aggressively into AI, while the “vast majority of companies today still forbid their employees to use any AI tool within the organization. [But] I’m confident that in a year, this will all be changed.”
The challenge for both companies and lawmakers is that AI is new and evolving. Companies are still determining where and how it can be used, while politicians are trying balance the need to protect people with a desire not to hold back progress, Frank says.
“We definitely see that debate happening in the U.S. It’s been happening in Canada too. Keeping up to speed with the technology as it’s being developed, and trying to build legislation at the same time has been challenging,” she adds.
In the meantime, Piovesan says it is extremely important for board members to take responsibility for proactively educating themselves on what AI can bring to their organization.
“To sit back and wait for this to come your way is not a wise strategy,” she says.
En outre, la Directive sur le devoir de vigilance des entreprises en matière de durabilité, en vertu du nouveau Pacte vert pour l’Europe de l’Union européenne, exige des entreprises qu’elles commencent à faire rapport sur la confidentialité des données en 2026 et en 2027. « Donc, si on est une entreprise canadienne ayant des revenus supérieurs à 150 millions d’euros en Europe, on doit se conformer à ces exigences et ainsi, aussi bien le faire pour l’ensemble de l’organisation », poursuit Mme Métayer.
Tout comme le Canada, les États-Unis n’ont pas de loi fédérale globale sur l’IA. Deux projets de loi fédéraux ont été proposés concernant l’IA, mais ils n’ont pu être adoptés. Certains États comme le Colorado, l’Utah et la Californie ont légiféré sur l’IA et d’autres, dont l’État de Washington, ont néanmoins commencé à proposer des lois, dit Mme Piovesan. Le contentieux d’une entreprise peut aider ses administrateurs à naviguer à travers les lois en vigueur. « Il est difficile pour un administrateur de suivre les lois de chaque État américain, mais en tant que membre du conseil, on est responsable de s’en informer », explique Mme Métayer.
Elle affirme qu’une immense pression s’exerce sur la haute direction de la part de certains conseils pour s’engager de façon plus agressive dans l’intelligence artificielle, alors que la « vaste majorité des entreprises interdisent encore aujourd’hui à leurs employés d’utiliser quelque outil d’IA que ce soit au sein de l’organisation. Mais j’ai confiance que d’ici un an, tout cela aura changé. »
Le défi, aussi bien pour les entreprises que pour les législateurs, réside dans le fait que l’IA est un phénomène nouveau et en évolution rapide. Les organisations en sont encore à déterminer où et comment elle peut être utilisée, alors que les politiciens essaient d’observer un équilibre entre la nécessité de protéger les gens et le désir de ne pas retarder le progrès de nouvelles technologies susceptibles d’aider beaucoup de gens, souligne Mme Frank.
« Nous voyons clairement ce débat se dérouler aux États-Unis. Il se passe aussi au Canada. Tenir le rythme de la technologie pendant qu’elle se développe et tenter du même souffle de créer des lois est une entreprise difficile. Il y a donc un peu d’attentisme, une approche de consultation, afin que les législateurs atteignent cet équilibre », estime-t-elle.
Entre-temps, Mme Piovesan soutient qu’il est extrêmement important pour les membres du conseil de se former de façon proactive sur ce que l’IA peut apporter à leur organisation.
« S’asseoir en attendant que tout cela vienne à nous n’est pas une stratégie très sage », conclut-elle.
Your digital life may reflect everything from your onlinepurchases to social interactions, but control lies beyond your hands, even after death
AMAZON.COM INC.’S RING VIDEO DOORBELL remotely screens visitors at the door and monitors package deliveries. Alphabet Inc.’s Fitbit fitness tracker monitors step counts and heart rate to help improve cardiovascular health. And 23andMe Holding Co. sells DNA testing kits aimed at discovering people’s ancestry by analyzing their saliva samples. What users may or may not know is that these companies gather all sorts of data about people, and what they do with it is murky. In her book We, The Data: Human Rights in the Digital Age, Wendy H. Wong warns of the potential harm from such information collection by technology and other firms. She argues for making data literacy part of our basic right to education, as well as for stronger government regulation to protect one’s data. Director Journal asked Wong, a political science professor and Principal’s Research Chair at the University of British Columbia
Okanagan, what dangers can arise from data collection by corporations, why the rise of facial recognition technology is worrisome and what’s needed to protect one’s data.
Your book received the 2024 Balsillie Prize for Public Policy. What motivated you to write We, The Data? In 2019, I started to become fascinated and worried by what I was reading about artificial intelligence (AI). There was no ChatGPT then. It wasn’t even about generative AI or everyday predictive systems, such as Amazon suggesting you might be interested in a certain book or item. But AI systems are now way more advanced and complicated so that’s what motivated me. People kept saying that AI is going
to fundamentally change humanity. Given my background studying activists and international human rights, I thought we should think about data in the context of the United Nations’ 1948 Universal Declaration of Human Rights. The goal was to show that humans are embedded in that data we take for granted, why we need to use human rights to evaluate how to regulate data, and how to think about ways to limit data collection.
What risks do people face from Big Tech and other firms collecting their data from apps or technological devices?
A lot of the dangers are not known, but we are starting to see harm. If you think about step-count data or location data, it describes daily, granular types of activities. We probably don’t think about our phones, smart watches, computers and even cars gathering data about what we do, but they are. That is what I call data stickiness it’s sticky, just like gum. Once the data is out there, it can be used for different purposes such as predicting people’s behaviours or political views. It can leave people vulnerable to manipulation depending on the interests of companies or people behind those algorithms. The data can be used by advertisers to target certain people, by financial institutions to determine whether to reject mortgage applications or by landlords to determine tenants’ creditworthiness.
The European Union’s [EU] General Data Protection Regulation, adopted in 2016, has inspired similar regulations elsewhere to set up guardrails for data collection. Why is this not sufficient?
One major problem with this EU law is that the standard for regulation relates to identifiability. If you can’t identify, say Wendy Wong, in a data set and it’s just de-identified data [removal of personal information], that passes the bar regarding EU legislation. Typically, we think of personal information as one’s address, phone number, birthday or social insurance number. That does not include things like our commute patterns, our gait [walk], how many steps a day one walks or one’s Internet search patterns all data that are currently tracked. The problem is that there is so much data about people out there that even de-identified data is straightforward for experts to figure out. So, the standard of identifiability is outdated. Data scientists can still pinpoint someone based on their behaviours. It’s very hard to remain anonymous when there is so much data collected about us.
Facial recognition technology [FRT] is used by law enforcement agencies to catch bad actors. Why should we worry?
Our face is probably the most innate way that we recognize one another. This is a very personal feature to be captured on digital data, and it goes back to dignity and equality
as human rights. We know that there can be abuse. FRT has been used disproportionately against black and indigenous populations, lower socioeconomic classes and refugees. The problem is that it’s not capturing someone’s face for a record. It’s details about one’s face, and the measurements can be shared across other data sets. Once the data is created, we don’t know what it will be used for. This takes away from our humanity.
‘You can think of data literacy as understanding how data is created, how it can have biases and how there can be implications for a society based on data. ’
You say data rights issues don’t end with death. Why?
It used to be that when you died, you died. You don’t interact with the world anymore. But data about you can continue interacting with the world even after you are gone. There are now different efforts to create a sort of digital after-life. It’s about recreating people through the data that was generated while they were living. When you are dead, that digitized version of you can continue to exist. So, the way we think of human life then fundamentally changes. We have very strong norms about how we are supposed to treat dead bodies. Can you treat a dead person’s data with dignity? If so, what does it mean if you can exploit that data to create bots to sound like, and act like, a dead person? But we don’t talk about death in human rights. These rights belong to those who are living.
How do you see the role of data literacy in protecting our data?
Data literacy should be included in this idea of the right to education. In developing countries, that right usually refers to elementary and intermediate education, but digital technologies and not just learning about the tools should be part of it. In other words, you can use a computer but do not understand that it is collecting data about you. You can think of data literacy as understanding how data is created, how it can have biases and how there can be implications for a society based on data. Once people have that information, they can better influence tech companies and government policies. Libraries tend to be highly trusted civic institutions so that’s a way to reach people who need data literacy. Estonia and Finland are countries that have made digital and data literacy a central plank in their education polices.
You say government regulation is needed to rein in data collection. Why? Governments are well positioned to regulate data because they have been good at collecting data about citizens for a long time. The inventions by Big Tech gave them other ways to collect data, and the ability of governments to track and understand their citizens got left behind. There are regulations, such as the EU’s Digital Markets Act, but this is directed at leveling the playing field for smaller companies’ vis-à-vis larger companies and facilitating competition. That’s a market approach. Given how much of the data describes human choices and values, a better way is simply to limit the types of data collected regardless of whether it is a small or large enterprise.
AVERAGE PERCENTAGE OF FEMALE DIRECTORS 28%
1.3% Increase of female directors year-over-year in 2024
40.4%
Rate at which women are filling new or vacant director positions
9.6%
10%
Boards with no women in 2024
AVERAGE PERCENTAGE OF MALE DIRECTORS 72%
BOARDS WITH A MALE CHAIR
90.4%
Canadian public companies slowly make their boards more representative
International Women’s Day occurs on March 8, at a time when many companies are pulling back on diversity, equity and inclusion (DEI) initiatives, and U.S. President Donald Trump has outlawed them in the U.S. government.
Nevertheless, women continued to increase their presence in Canadian boardrooms in 2024, albeit at a slower pace than in previous years.
Here are some of the key numbers from Osler Hoskin & Harcourt’s
2024 Diversity Disclosure Practices report, which looks at the 610 public companies disclosing female representation as required by securities law and the Canada Business Corporations Act.
Are you a board director or Executive Director of a registered charity dedicated to community improvement? Apply now for the ICD-RBC Foundation Scholarship. This needs-based financial assistance* will provide you with the opportunity to attend the ICD-Rotman Governance Essentials Program, a foundational program to build the necessary skills to serve on boards effectively.
Apply now at EDUCATION.ICD.CA/RBC25