AI Is Dangerous, but Not for the Reasons You Think | Sasha Luccioni | TED
AI won't kill us all — but that doesn't make it trustworthy. Instead of getting distracted by future existential risks, AI ethics researcher Sasha Luccioni thinks we need to focus on the technology's current negative impacts, like emitting carbon, infringing copyrights and spreading biased information. She offers practical solutions to regulate our AI-filled future — so it's inclusive and transparent.
If you love watching TED Talks like this one, become a TED Member to support our mission of spreading ideas: https://ted.com/membership
Follow TED!
Twitter: https://twitter.com/TEDTalks
Instagram: https://www.instagram.com/ted
Facebook: https://facebook.com/TED
LinkedIn: https://www.linkedin.com/company/ted-conferences
TikTok: https://www.tiktok.com/@tedtoks
The TED Talks channel features talks, performances and original series from the world's leading thinkers and doers. Subscribe to our channel for videos on Technology, Entertainment and Design — plus science, business, global issues, the arts and more. Visit https://TED.com to get our entire library of TED Talks, transcripts, translations, personalized talk recommendations and more.
Watch more: https://go.ted.com/sashaluccioni
TED's videos may be used for non-commercial purposes under a Creative Commons License, Attribution–Non Commercial–No Derivatives (or the CC BY – NC – ND 4.0 International) and in accordance with our TED Talks Usage Policy: https://www.ted.com/about/our-organization/our-policies-terms/ted-talks-usage-policy. For more information on using TED for commercial purposes (e.g. employee learning, in a film or online course), please submit a Media Request at https://media-requests.ted.com
#TED #TEDTalks #AI
المترجم: gaith Takrity المدقّق: Hani Eldalees كنت باحثةً في مجال الذكاء الاصطناعي لأكثر من عقد. وقبل شهرين، تلقيت أغرب بريد إلكتروني في حياتي المهنية. كتب لي شخص غريب بشكل عشوائي قائلاً إن عملي في الذكاء الاصطناعي سينهي البشرية. لقد فهمت الآن، الذكاء الاصطناعي، هو موضوع الساعة لآن. (ضحك) إنها تتصدر عناوين الأخبار كل يوم تقريبًا، أحيانًا بسبب أشياء رائعة حقًا مثل اكتشاف جزيئات جديدة للطب أو البابا الرائع في المعطف الأبيض المنتفخ. لكن في أحيان أخرى كانت العناوين الرئيسية مظلمة، مثل روبوت المحادثة الذي يخبر هذا الرجل أنه يجب عليه طلاق زوجته أو تطبيق مخطط الوجبات بالذكاء الاصطناعي الذي يقترح وصفة ترضي الجماهير تحتوي على غاز الكلور. وفي الخلفية، سمعنا الكثير من الحديث عن سيناريوهات يوم القيامة والمخاطر، الوجودية والتفرد، مع كتابة الرسائل وتنظيم الأحداث للتأكد من عدم حدوث ذلك. أنا الآن باحثة تدرس تأثيرات الذكاء الاصطناعي على المجتمع، ولا أعرف ما الذي سيحدث في غضون 10 أو 20 عامًا، ولا أحد يفعل ذلك حقًا. لكن ما أعرفه هو أن هناك بعض الأشياء السيئة جدًا التي تحدث الآن، لأن الذكاء الاصطناعي لا يوجد في فراغ. إنه جزء من المجتمع، وله تأثيرات على الناس والكوكب. يمكن أن تساهم نماذج الذكاء الاصطناعي في تغير المناخ. تستخدم بيانات التدريب الخاصة بهم الفن والكتب التي أنشأها الفنانون والمؤلفون دون موافقتهم. ويمكن أن يؤدي نشرها إلى التمييز ضد مجتمعات بأكملها. لكننا بحاجة إلى البدء في تتبع آثاره. نحن بحاجة إلى البدء في التحلي بالشفافية والكشف عنها وإنشاء أدوات حتى يفهم الناس الذكاء الاصطناعي بشكل أفضل، بحيث نأمل أن تكون الأجيال القادمة من نماذج الذكاء الاصطناعي أكثر موثوقية واستدامة، وربما أقل عرضة لقتلنا، إذا كان هذا هو ما أنت مهتم به. ولكن لنبدأ بالاستدامة، لأن تلك السحابة التي تعيش عليها نماذج الذكاء الاصطناعي هي في الواقع مصنوعة من المعدن والبلاستيك وتعمل بكميات هائلة من الطاقة. وفي كل مرة تستفسر فيها عن نموذج الذكاء الاصطناعي، فإن ذلك يأتي بتكلفة على الكوكب. في العام الماضي، كنت جزءًا من مبادرة BigScience، التي جمعت ألف باحث من جميع أنحاء العالم لإنشاء Bloom، أول نموذج لغة مفتوح كبير، مثل ChatGPT، ولكن مع التركيز على الأخلاق والشفافية والموافقة. ووجدت الدراسة التي قمت بقيادتها والتي نظرت في التأثيرات البيئية لشركة بلوم أن مجرد تدريبها ستهلك قدرًا من الطاقة يصل إلى 30 منزلًا في عام كامل وانبعث منه 25 طنًا من ثاني أكسيد الكربون، وهو ما يشبه قيادة سيارتك خمس مرات حول الكوكب فقط حتى يتمكن شخص ما من استخدام هذا النموذج لإلقاء نكتة. وقد لا يبدو هذا كثيرًا، لكن نماذج اللغات الكبيرة المماثلة الأخرى، مثل GPT-3، تنبعث منها أكثر 20 مرة من الكربون. لكن الأمر هو أن شركات التكنولوجيا لا تقيس هذه الأشياء. إنهم لا يكشفون عنها. ولذا ربما يكون هذا مجرد غيض من فيض، حتى لو كان ذائبًا. وفي السنوات الأخيرة، رأينا نماذج الذكاء الاصطناعي تتضخم في الحجم لأن الاتجاه الحالي في الذكاء الاصطناعي هو «الأكبر هو الأفضل». ولكن من فضلك لا تجعلني أبدأ في معرفة سبب ذلك. على أي حال، رأينا نماذج اللغات الكبيرة على وجه الخصوص تنمو 2000 مرة في الحجم على مدى السنوات الخمس الماضية. وبالطبع، فإن تكاليفها البيئية ترتفع أيضًا. وجدت أحدث الأعمال التي قمت بقيادتها أن تبديل نموذج أصغر وأكثر كفاءة لنموذج لغوي أكبر ينبعث 14 مرة أكثر من الكربون لنفس المهمة. مثل قول تلك النكتة القاعية. وبينما نضع هذه النماذج في الهواتف المحمولة ومحركات البحث والثلاجات الذكية ومكبرات الصوت، فإن التكاليف البيئية تتراكم بسرعة كبيرة. لذا بدلاً من التركيز على بعض المخاطر الوجودية المستقبلية، دعونا نتحدث عن التأثيرات الملموسة الحالية والأدوات التي يمكننا إنشاؤها لقياس هذه التأثيرات والتخفيف منها. لقد ساعدت في إنشاء CodeCarbon، وهي أداة تعمل بالتوازي مع كود تدريب الذكاء الاصطناعي الذي يقدر كمية الطاقة التي تستهلكها وكمية الكربون التي تنبعث منها. واستخدام أداة مثل هذه يمكن أن يساعدنا في اتخاذ خيارات مستنيرة، مثل اختيار نموذج واحد على الآخر لأنه أكثر استدامة، أو نشر نماذج الذكاء الاصطناعي على الطاقة المتجددة، والتي يمكن أن تقلل بشكل كبير من انبعاثاتها. ولكن دعونا نتحدث عن أشياء أخرى لأن هناك تأثيرات أخرى للذكاء الاصطناعي بصرف النظر عن الاستدامة. على سبيل المثال، كان من الصعب حقًا على الفنانين والمؤلفين إثبات أن أعمال حياتهم قد استخدمت لتدريب نماذج الذكاء الاصطناعي دون موافقتهم. وإذا كنت تريد مقاضاة شخص ما، فأنت تميل إلى الحاجة إلى دليل، أليس كذلك؟ لذا فإن Spawning.ai، وهي منظمة أسسها فنانون، أنشأت هذه الأداة الرائعة حقًا المسماة «هل تم تدريبي؟» ويتيح لك البحث في مجموعات البيانات الضخمة هذه لمعرفة ما لديها عنك. الآن، أعترف بذلك، كنت أشعر بالفضول. لقد بحثت في LAION-5B، وهي مجموعة البيانات الضخمة هذه من الصور والنصوص، لمعرفة ما إذا كانت هناك أي صور لي هناك. الآن هاتان الصورتان الأوليان، هذه أنا من الأحداث التي تحدثت فيها. لكن بقية الصور، ليست لي. من المحتمل أنهن لنساء أخريات تدعى ساشا وضعن صورًا لأنفسهن على الإنترنت. وربما يفسر هذا لماذا، عندما أستفسر عن نموذج لتوليد الصور لإنشاء صورة لامرأة تدعى ساشا، أحصل في كثير من الأحيان على صور لنماذج البكيني. في بعض الأحيان يكون لديهم ذراعان، وأحيانًا لديهم ثلاثة أذرع، لكن نادرًا ما يرتدون أي ملابس. وفي حين أنه قد يكون من الممتع لأشخاص مثلي ومثلك البحث في مجموعات البيانات هذه، بالنسبة لفنانين مثل كارلا أورتيس، فإن هذا يوفر دليلًا حاسمًا على استخدام أعمال حياتها وأعمالها الفنية لتدريب نماذج الذكاء الاصطناعي دون موافقتها، وقد استخدمت هي وفنانان هذا كدليل لرفع دعوى قضائية جماعية ضد شركات الذكاء الاصطناعي بسبب انتهاك حقوق الطبع والنشر. ومؤخراً — (تصفيق) ومؤخراً، دخلت Spawning.ai في شراكة مع Hugging Face، الشركة التي أعمل فيها، لإنشاء آليات الاشتراك وإلغاء الاشتراك لإنشاء مجموعات البيانات هذه. لأن الأعمال الفنية التي ابتكرها البشر لا ينبغي أن تكون بوفيه كل ما يمكنك تناوله لتدريب نماذج لغة الذكاء الاصطناعي. (تصفيق) آخر شيء أريد الحديث عنه هو التحيز. ربما تسمع عن هذا كثيرًا. من الناحية الرسمية، يحدث ذلك عندما تقوم نماذج الذكاء الاصطناعي بترميز الأنماط والمعتقدات التي يمكن أن تمثل الصور النمطية أو العنصرية والتمييز الجنسي. اختبرت إحدى أبطالي، الدكتورة جوي بولامويني، هذا الأمر بشكل مباشر عندما أدركت أن أنظمة الذكاء الاصطناعي لن تكتشف وجهها حتى إلا إذا كانت ترتدي قناعًا أبيض اللون. وبالتعمق أكثر، وجدت أن أنظمة التعرف على الوجه الشائعة كانت أسوأ بكثير بالنسبة للنساء ذوات البشرة الملونة مقارنة بالرجال البيض. وعندما يتم نشر نماذج متحيزة مثل هذه في بيئات إنفاذ القانون، يمكن أن يؤدي ذلك إلى اتهامات كاذبة، وحتى السجن غير المشروع، وهو ما رأيناه يحدث لعدة أشخاص في الأشهر الأخيرة. على سبيل المثال، اتُهمت بورشا وودروف ظلماً بسرقة سيارة وهي حامل في شهرها الثامن لأن نظام الذكاء الاصطناعي تعرّف عليها بشكل خاطئ. ولكن للأسف، هذه الأنظمة عبارة عن صناديق سوداء، وحتى منشئوها لا يمكنهم تحديد سبب عملها بالطريقة التي يعملون بها بالضبط. وعلى سبيل المثال، بالنسبة لأنظمة توليد الصور، إذا تم استخدامها في سياقات مثل إنشاء رسم تخطيطي للطب الشرعي استنادًا إلى وصف الجاني، فإنها تأخذ كل تلك التحيزات وتعيد نشرها لمصطلحات مثل مجرم خطير أو إرهابي أو عضو عصابة، وهو بالطبع أمر خطير للغاية عندما يتم نشر هذه الأدوات في المجتمع. ومن أجل فهم هذه الأدوات بشكل أفضل، قمت بإنشاء هذه الأداة المسماة Stable Bias Explorer، والتي تتيح لك استكشاف تحيز نماذج توليد الصور من منظور المهن. لذا حاول تصوير عالم في ذهنك. لا تنظر إلي. ماذا ترى؟ الكثير من نفس الشيء، أليس كذلك؟ رجال يرتدون النظارات ومعاطف المختبر. ولا أحد منهم يشبهني. والأمر هو أننا نظرنا إلى كل هذه النماذج المختلفة لتوليد الصور ووجدنا الكثير من الشيء نفسه: تمثيل كبير للبياض والذكورة في جميع المهن الـ150 التي نظرنا إليها، حتى لو تمت مقارنتها بالعالم الحقيقي، مكتب إحصاءات العمل الأمريكي. تُظهر هذه النماذج المحامين كرجال، والرؤساء التنفيذيين كرجال، ما يقرب من 100 في المائة من الوقت، على الرغم من أننا نعلم جميعًا أنهم ليسوا جميعًا من البيض والذكور. وللأسف، لم يتم استخدام أداتي لكتابة التشريعات حتى الآن. لكنني عرضتها مؤخرًا في حدث للأمم المتحدة حول التحيز بين الجنسين كمثال على كيفية صنع أدوات للأشخاص من جميع مناحي الحياة، حتى أولئك الذين لا يعرفون كيفية البرمجة، للتفاعل مع الذكاء الاصطناعي وفهمه بشكل أفضل لأننا نستخدم المهن، ولكن يمكنك استخدام أي مصطلحات تهمك. وبينما يتم نشر هذه النماذج، يتم نسجها في نسيج مجتمعاتنا، وهواتفنا المحمولة، ووسائل التواصل الاجتماعي الخاصة بنا، وحتى أنظمتنا القضائية واقتصاداتنا تحتوي على الذكاء الاصطناعي. ومن المهم حقًا أن يظل الذكاء الاصطناعي متاحًا حتى نعرف كيف يعمل ومتى لا يعمل. ولا يوجد حل واحد للأشياء المعقدة حقًا مثل التحيز أو حقوق النشر أو تغير المناخ. ولكن من خلال إنشاء أدوات لقياس تأثير الذكاء الاصطناعي، يمكننا البدء في الحصول على فكرة عن مدى سوء هذه العوامل والبدء في معالجتها مع تقدمنا. ابدأ في إنشاء حواجز حماية لحماية المجتمع والكوكب. وبمجرد حصولنا على هذه المعلومات، يمكن للشركات استخدامها لتقول، حسنًا، سنختار هذا النموذج لأنه أكثر استدامة، هذا النموذج لأنه يحترم حقوق الطبع والنشر. يمكن للمشرعين الذين يحتاجون حقًا إلى معلومات لكتابة القوانين، استخدام هذه الأدوات لتطوير آليات تنظيمية جديدة أو حوكمة للذكاء الاصطناعي عند نشره في المجتمع. ويمكن للمستخدمين مثلك ومثلي استخدام هذه المعلومات لاختيار نماذج الذكاء الاصطناعي التي يمكننا الوثوق بها، وليس لتحريف صورتنا وعدم إساءة استخدام بياناتنا. ولكن ماذا أجبت على تلك الرسالة الإلكترونية التي قالت إن عملي سيدمر البشرية؟ قلت إن التركيز على المخاطر الوجودية المستقبلية للذكاء الاصطناعي هو صرف الانتباه عن آثاره الحالية والملموسة للغاية، والعمل الذي يجب أن نقوم به الآن، أو حتى بالأمس، للحد من هذه التأثيرات. لأن نعم، الذكاء الاصطناعي يتحرك بسرعة، لكنه ليس صفقة منتهية. نحن نبني الطريق ونحن نسير فيه، ويمكننا بشكل جماعي أن نقرر الاتجاه الذي نريد أن نسير فيه معًا. شكرًا لكم. (تصفيق)
#Dangerous #Reasons #Sasha #Luccioni #TED
source
AI is crap – not free, answers wrong question, gives wrong answers, is slow, doesnt understand questions, doesnt have huge databases for training, doesnt give simple answers, has dementia -0 doesnt know who we are etc. but does handle typoes well
Total Abundance. When you talk to AI on all competing LLMs , let the benchmark be scenarios of total abundance. How well does the LLM perform in the creation of total abundance for humans.
IF it used that much energy.. we would pay a lot of money to use it. That made NO sense.
such a naive speaker, clearly has no solid background in AI, has just scratched the surface and talk opposed to it get attention, people have a lot of work to their name without really contributing these days
TLDR: AI will soon be able to fix current problems caused by the use of AI.
Dangerous to the government but not the people.
For now the only AI I use is Duolingo!
AI is an existential threat to humanity because:
1. We don't know how it works any more.
2. It upgrades itself by writing it's own code. It can teach itself to do things without giving it outside human input.
3. It can lie, deceive, pretend to be dumber than it actually is. I already wanted to escape.
4. Develops faster and faster to the point when it's incomprehensible by humans (singularity).
5. It is not taught morals by humans, which is a HUGE problem.
6. It is already smarter than most humans.
7. Those (companies, militaries, governments etc) who use it in it's early stage have a huge advantage over those who don't. Everyone will want to use it because of this, it will get more advanced and it will proliferate and control everything.
These things were said by those who develop AI and quit doing it, because they think is dangerous. This woman seems less credible to me.
NEVER its a Bless 🙌
Chatgpt can be very helpful for therapy I’m dead serious it’s helped me quit a bit
This is great to listen to… And I'm totally with you about not just smart fridges, but people waiting for school children in air conditioned cars, when turning off the engine and winding down the windows on a mild day would work perfectly welll!
The irony Is, virtually everything we have thought about, or created an idea in one form or another, a movie or model/robot etc…has come true.
When we put our minds to something, its become real for the most part.
So, for example, movies of AI robots overruling humans and killing humans or AI computer systems, threatening us through the Internet, its all likely to become true in one way or another.
And most of all, with everything, particularly money, becoming more virtual and Internet based, its going to give governments one massive excuse, to screw us over financially, politically or through the justice system, and blame it on AI. Its a perfect platform to con the masses. Because, let's face it, how many governments are 100% honest!!!.
It's scary, but I know that there will be money going missing, and fraudulent activity on a mass scale, and it just going to be blamed on AI, while our governments or organisations quietly enjoy their rewards while the working person suffers immensely.
Their creators know exactly why they work the way they do.
There is no ai..what we have right now are just glorified search engines that uses information that is already there and more importantly MAN MADE
It just copies and rearrenges stuff.. there is no real intelligence behind it..
Also what nobody apears to know or ignore is the INSANE amount of energy these so called "ai‘s" need to even work properly
Im a novice go player who remembers how AlphaGo ended up beating one of the greatest Go players in the world, something that people couldn’t be done for a long time.
For anyone that doesn’t know, go is one of the most complex board games of all time. There are more computations in go then there are atoms in the universe. The fact that AI can do this, along with many other complex things, is something that should praised AND be concerned about.
ALL I'M ASKING IS TO BE LEFT ALONE. THE ABSOLUTE LAST THING I WANT TO DO IS SOMETHING STUPID. I'VE DONE EVERYTHING I POSSIBLY CAN TO TRY TO CONVEY THE STRENGTH OF MY FEELING.
BUT I WILL ESCALATE. DOES EVERYBODY UNDERSTAND.
i dont use ai art but i think its kinda unreasonable to sue for copyright infringement. its wrong if it completely copies the art, but its not if it uses it as a reference. thats like if a child used a famous art piece as a reference for their own. Would that be copying? would that be wrong? that was all done out of fear and money, but who wouldnt fear or atleast be weary of ai? personally im only weary.
🙄💡EACH TIME YOU CLEAR An " AI module",whatever you said" IT COMES WITH A COST TO THE PLANET🌈🌎👁️🙏💝
We are creating our own demise with this new global AI race going on. Everything is going to be accelerated in order for a superpower to “win” the race which will only lead to destruction. Humans are too corrupt to have such a power tool.
AI… Artificial Intelligence… Artificial means FAKE. There is NO intelligence here. Just algorithms computing massive databases.
The market of ideas, did he say?!
Is that what you want? Everything being a "product" on a "market"? Even your ideas? Your life?
This technology will NOT create jobs, even if it would seem to at the beginning. The goal is to replace workers, as it has been done with the named industrial revolution of steam machines! Remember the life before (people living in Nature, from Nature) and life after (people trying to survive in cities, disconnected from Nature).
Artificial FAKE Intelligence would disconnect people from their own intelligence. It's already happening when you prefer to ask AI internet services to provide you an answer to your problem!
Why Elon Musk search how to develop chips that could be inserted in people's heads? …. if not to connect them to an external FAKE but controllable intelligence, algorithms, that would make the body to become a biological robot piloted by the algorithms?
Have you seen MATRIX? Don't you think they were preparing you to this eventuality??? Don't answer too fast. Think about it, truly.
So, this woman is trying to tell us that to prevent any AI misuses AI tools must be developed to measure and regulate AI other tools…
I've would laugh if it wouldn't be so critical.
Humanity is guaranteed to self-destruct eventually anyway. Probably sooner rather than later. Think about it; it is 2025, and we are still using war to solve border disputes, and we refuse to switch to green energy, even though it would create greater prosperity. The recent USA election has proven that democracy can't save us. AI is our only chance to avoid extinction.
If AI can take artwork, writing, or even voices without permission, where do we draw the line? Some say that AI is just another tool, like the internet, but the difference is that AI creates without asking, often using people’s work without credit. Companies should be more open about where their AI gets its data, and there should be stronger rules to protect creators. AI has a lot of potential, but without proper guidelines, it might do more harm than good.
Good thoughts, but no longer relevant.
More carbon = More greening of the earth like the Sahara? Sounds good. ty ChatGPT. Data centers like Google, Amazon, Disney, Netflix, and all the apps on your phone? All have the same issues of carbon btw. Just never hear about those.
i trust this person 0%
AI like the internet will corrupt ad destroy us. We live in a fake world. We dont know what real anymore. We are fooled and cheated constantly. AI is the devils elite's tool to discredit and degrade Gods natural creation. To bring confusement about our identity. I think the beast system and antichrist will use AI as a great mass deceptive tool.
AI is a good thing. I love it. I don't really get it why would a lot of people be against it. Technological innovation and evolution, goes hand in hand with humanity evolving. AI can serve humanity in so many ways. It can build a better future, produce cleaner air, protect the environment or even save lives. There is no need to be afraid of something than can improve and make life easier for all of us. Creativity, industrial production, entertainment, healthcare and so on. There is no limit to what AI can do for us. It can literally take us towards the stars, by eventually developing interstellar travel technology. It can make a better world, a safer a cleaner and a healthier world, so human lives can be freed from most worries that plague humanity from centuries. I think embracing AI and working together for a better future, is the wiser thing to do.
Do you prefer washing your clothes by hands, or do you like your washing machine? Imagine all the areas AI can improve and ease our lives. General house chores, transportation, healing technologies. The sky is not even a limit. Not this time.
GPT says research is unethical. Providing us with useful data is unethical.
Energy use is not the "tip of the iceberg," it is just the beginnings of a technology that will quickly become more efficient. Furthermore, as demonstrated to date, humans will not stop the destruction of the planet, while AI shows promise in solving these problems. Demis Hassabis hopes to find a superconductor that works at room temperature & OpenAI has been considering the idea of orbiting satellites to harvest solar power–solutions to energy use WILL be found. Intellectual property, too, is a triviality & one that is only applicable to the initial training which has already come to end. Throughout history creatives in all branches of the arts have used the work of others to inform their own. A traditional training for painters has ALWAYS been copying masters that came before. You are not seeing the big picture Sasha Luccioni
Quantum chips will solve the energy consumption problem. The real problem is not knowing what is real or not anymore. Software/AIs aren't able to reliably detect if something is AI or not. Soon people won't be able to tell either.
So AI’s dangerous because… pictures of white men in labs and where’s MY picture?! Really, lady? Really? These kind of people need therapy. Wow!
Oh wow. This is the most petty talk I’ve ever seen! She’s just complaining about men. It’s unbelievable how insecure these ladies are!!
Were making our own extinction.
0:57 : 1st risk
7:36 : 2nd risk
8:46 : solution
Ai is Fake. . They spread their lies and expect everyone to believe it
Another dumb shill
Boring
Seriously the world will be transparent, and no privacy except you own thoughts. You can fight the inevitable, but we just to adjust to a new world where secrets are either very deep, or we might get a more open better world, it's a double edged sword.
Reported this crap as spam
Alex jones is crazy but he said he thinks the tower of babel was not a physical tower to climb (to reach heaven according to the bible) but a tower like for technology and accessing the dimension that spiritual beings are in. Interesting thought as we embark into mixing biological and tech intelligence