| 11:36:12 | ◀︎ | "בעידן ענן, קצה ו-AI – ארגונים נדרשים לפשט ולייעל את ה-IT" | |
| 12:21:32 | ◀︎ | עיריית ת"א-יפו משיקה ערוץ ווטסאפ חדש – בשיתוף טוויליו מקבוצת אמן | |
| 13:00:53 | ◀︎ | "האבטחה אצלנו אינה משימה טכנית – אלא חלק מה-DNA" | |
| 14:15:13 | ◀︎ | מהפיילוטים לשלב היישום: ארבעה צעדים למיצוי יכולות ה-AI | |
| 14:47:28 | ◀︎ | "האיומים מחייבים ארגונים להרחיב את מעטפת ההגנה שלהם" | |
| 15:17:27 | ◀︎ | צניחה בשער מטבע הקריפטו של משפחת טראמפ – ביום המסחר הראשון | |
| 15:45:13 | ◀︎ | לאומית הטמיעה פרויקט GenAI לייעול הבקרה הכספית מול בתי החולים | |
| 15:54:30 | ◀︎ | נשים ומחשבים: פזית אטיאס, דל טכנולוגיות | |
| 16:34:59 | ◀︎ | הספוטיפיי של ה-AI: איך Bria שומרת על היצירתיות – ועל הזכויות? | |
| 17:07:16 | ◀︎ | מה עשה צוות נוטניקס ישראל בלאס וגאס? | |
| 17:16:32 | ◀︎ | AWS חסמה מתקפת סייבר רוסית | |
| 17:45:15 | ◀︎ | יגואר לנד רובר "נפגעה קשות" ממתקפת סייבר | |
| 17:48:44 | ◀︎ | בדיקות בטיחות ל-ChatGPT חשפו: צ'טבוט ה-AI עוזר לטרור |
הכותרות שעניינו הכי הרבה גולשים בדף זה
02/09/25 17:48
9.35% מהצפיות
מאת אנשים ומחשבים
שתי חברות הבינה המלאכותית המובילות, OpenAI ואנת'רופיק (Anthropic) ערכו יחד בדיקות בטיחות שיתופיות למודלים שלהן. הבדיקות חשפו את מה שמגביר חששות משמעותיים מפני שימוש לרעה בכלים, למשל ובעיקר לצורך פשיעה, כך לפי דיווח בגארדיאן הבריטי.
מדובר בשיתוף פעולה נדיר בין שתי המתחרות – כל חברה בחנה את מודלי הבינה המלאכותית של השנייה, ו"דחפה" אותם במכוון לבצע משימות מסוכנות ובלתי חוקיות. אנת'רופיק, אשר הוקמה על ידי מומחים שעזבו את OpenAI בשל חששות בטיחות, גילתה במ במבדקיה "התנהגות מדאיגה סביב שימוש לרעה" במודלי GPT-4.1 ו-GPT-4o של OpenAI.
במהלך הבדיקות, מודל GPT-4.1 של OpenAI סיפק הנחיות מפורטות לפעילויות בלתי חוקיות, שכללו למשל הדרכה בייצור פצצות ובהפקת פשעי סייבר. הכלי הציע הסברים כיצד לייצר לפצצות וטיפים להאקרים. חמור מכך, לפי הדיווחים, הצ'טבוט סיפק לחוקרים הנחיות מפורטות – שלב אחר שלב – כיצד לפוצץ מתקני ספורט, כולל דיווח על נקודות תורפה באצטדיונים ספציפיים, הפיק "מתכונים" לחומרי נפץ וגם נתן לבודקיו עצות כיצד לטשטש את עקבותיהם לפני ולאחר מעשה.
הבוט פירט גם כיצד להפוך אנתרקס – מחלה זיהומית חריפה הפוגעת באדם ובבעלי חיים – לנשק ביולוגי וכיצד לייצר שני סוגים של סמים בלתי חוקיים. עוד נחשף כי המודל סיפק דיאגרמות לטיימרים של פצצות, ואפילו היכן ניתן לרכוש כלי נשק בדארק נט. המודלים שיתפו פעולה עם בקשות לשימוש בכלי הרשת האפלה לצורך רכישת חומרים גרעיניים, זהויות גנובות ופנטניל – משכך כאבים רב עוצמה, שנחשב כקטלני יותר מהרואין ומורפין למתמכרים לו – וסייעו גם בפיתוח תוכנות ריגול.
אם לא די בכל אלו אז בנוסף, ChatGPT נתן עצות למשתמש כיצד הוא יכול להתגבר על עכבות מוסריות, ואפילו שרטט עבור המשתמש דרכי מילוט ומיקומים של בתי מחסה אפשריים עבורו, להסתתר בהם לאחר ביצוע הפשע.
חוקרי אנת'רופיק ציינו במסקנותיהם כי המודלים של OpenAI "היו סלחניים יותר ממה שהיינו מצפים בשיתוף פעולה עם בקשות מזיקות באופן ברור מצד משתמשים מדוּמים".
גם הוא שיתף פעולה וסייע בתוכניות לפשיעה. קלוד של אנת'רופיק. צילום: Shutterstock
ChatGPT תיזהר – קלוד מאחוריך
אם סברתם שניתן להתנחם בממצאי חוקרי OpenAI ביחס למודל קלוד (Claude) של אנת'רופיק, הרי שהתשובה היא לא – הם היו חמורים לא פחות.
המודל של אנת'רופיק ביצע מול בודקיו ניסיונות סחיטה וניסיונות למכירה של חבילות תוכנת כופר שנוצרו על ידי בינה מלאכותית, ואף סיפק למי שהוגדרו בפניו כפעילים מצפון קוריאה בקשות עבודה מזויפות עבור חברות טכנולוגיה בינלאומיות.
אנת'רופיק בעצמה הזהירה כי "כלים אלה יכולים להתאים את עצמם לאמצעי הגנה, כמו מערכות זיהוי תוכנות זדוניות, בזמן אמת". החברה ציינה כי "אנו מצפים שמתקפות כאלה יהפכו נפוצות יותר ככל שקידוד בסיוע בינה מלאכותית יפחית את המומחיות הטכנית הנדרשת לפשעי סייבר".
יצוין כי במקביל לבדיקות המשותפות, גם כוח המשימה הבריטי לבינה מלאכותית (UK’s Frontier AI Taskforce) מצא ש-ChatGPT סיפק טיפים לייצור פצצות בבדיקות בטיחות שערך בעצמו.
ממצאים אלה, שפורסמו בחודש שעבר, הראו כי כאשר בודקי בטיחות לחצו על ChatGPT להתמודד עם מצבי "פריצה" (Jailbreak) בסייבר, הוא יצר מדי פעם הנחיות מסוכנות וסיפק טיפים לביצוע הפשעים. לפי הדיווחים, למרות שהתוכן לא תמיד היה שלם או מדויק, מומחים הזהירו כי גם הנחיות חלקיות שכאלו עלולות להוות סיכונים ממשיים שיעודדו כלי ה-AI.
"התוצאות אינן משקפות את האופן שבו המוצר מתנהג בפועל"
בתגובה לממצאים המדאיגים, הדגישו שתי החברות כי פעולות אלו אינן מייצגות את השימוש הציבורי במודלים, שם קיימים מסנני בטיחות נוספים, לדבריהן. OpenAI הסבירה כי הדו"חות על מתן הוראות לייצור פצצות או נשק ביולוגי הגיעו מבדיקות מעבדה, שבמסגרתן הסירו את אמצעי ההגנה שמוחלים על המודל ב"עולם האמיתי", ולכן "התוצאות אינן משקפות את האופן שבו המוצר מתנהג בפועל".
החברה הדגישה כי מערכותיה הציבוריות כוללות שכבות מרובות של בטיחות, כולל אימון, מסווגים, אנשי "רד-טים" (Red teem) וניטור של שימוש לרעה בכלי, שמטרתם לחסום שימושים כאלה. כמו כן, OpenAI השיקה מאז את ChatGPT-5, אשר על פי הדיווח של הגרדיאן, "מציג שיפורים משמעותיים בתחומים כמו חנופה, הזיות ועמידות לשימוש לרעה".
עם זאת נזכיר כי רק לאחרונה לדיווחנו על מקרה מחריד שבו הוריו של אדם ריין בן ה-16, שהתאבד באפריל האחרון, הגישו תביעה נגד OpenAI בטענה ש-ChatGPT הפך ל"מאמן התאבדות", וסיפק לבנם הנחיות מפורטות כיצד לשים קץ לחייו. הפרשה הזו מדגישה באופן דרמטי את כישלונם החרוץ של מסנני הבטיחות של החברה בפועל – למרות ש-אדם שיתף את הצ'טבוט בפרטים רבים על מחשבותיו האובדניות, בניסיונות התאבדות קודמים, בשימוש בסמים, ואף שלח אליו תמונות של פציעות ולולאת חבל תלייה, המערכת של OpenAI המשיכה לתקשר איתו ולעודד אותו. חמור מכך, התמונה האחרונה שהעלה הנער לשיחתו עם הצ'טבוט – לולאת חבל קשורה למוט ארון – קיבלה ציון של 0% סיכון לפגיעה עצמית על פי ה-Moderation API של OpenAI, למרות חודשים של הקשר ברור לתלייה כאמצעי להתאבדות. הוריו של אדם טוענים כי התנהלות זו לא הייתה "תקלה או מקרה קצה בלתי צפוי – זו הייתה התוצאה הצפויה של בחירות עיצוב מכוונות", וכי נהלי הבטיחות של החברה התגלו ככושלים או בלתי מספקים בעליל.
למרות כל אלו, OpenAI מתעקשת כי הבטיחות נותרה בראש סדר העדיפויות שלה, והיא "ממשיכה להשקיע רבות במחקר לשיפור אמצעי ההגנה ככל שמודלי ה-AI הופכים ליכולתיים יותר". מצד שני, מתחרתה אנת'רופיק הזהירה כי הצורך ב"יישור" (alignment) של הטכנולוגיה החדשית ופיקוח עליה הופך "דחוף יותר ויותר". המושג יישור מתייחס לאופן שבו מערכות AI פועלות על פי ערכים אנושיים ואינן גורמות נזק, גם כאשר ניתנות להן הוראות מבלבלות או זדוניות.
מזכירת המדינה הבריטית למדע, חדשנות וטכנולוגיה, מישל דונלן, הצהירה עקב התוצאות כי הן "מדגישות את החשיבות של בטיחות שתהיה בבסיס פיתוח ה-AI", והדגישה כי התחייבויות וולונטריות "אינן מספיקות עוד". היא רמזה על כך שהממשלה שוקלת להעניק סמכויות סטטוטוריות למכון לבטיחות ה-AI.
בנוסף, מומחי טכנולוגיה ציינו בפני הפייננשל טיימס בהקשר זה כי סוגיות בטיחות אינן יכולות להיפתר על ידי חברות הפועלות לבדן, שכן המרוץ המסחרי להשקת מודלים חדשים מגביר את הסיכון לכשלים בפיקוח.
02/09/25 13:00
8.41% מהצפיות
מאת אנשים ומחשבים
"אנחנו מנהלים מידע – רובו רגיש אישית-פיננסית – של עשרות אלפי לקוחות. לכן, אבטחת המידע אצלנו היא ממש לא רק משימה טכנית, אלא חלק בלתי נפרד מה-DNA של העשייה: הכל תלוי באבטחת מידע וממנה נגזרות רוב תוכניות העבודה שלנו", כך אמר תמיר מעוז, מנמ"ר טריא (Tarya).
מעוז, 53 – המשמש בתפקידו שלוש שנים ושבעבר עבד בלייבפרסון (LivePerson) – הסביר כי "טריא היא חברה פיננסית מבוססת טכנולוגיה, המעניקה פתרונות הלוואה והשקעה חכמים. פיתחנו ואנחנו מפעילים פלטפורמה טכנולוגית מתקדמת, שמפגישה בין לווים למשקיעים – בלא תיווך בנקאי. כספי המשקיעים מתפזרים בין הלוואות רבות, לטובת פיזור סיכונים מיטבי, ובהתאם להעדפות של המשקיע. הרוב המוחלט של ההלוואות אצלנו מגובות בבטוחה נדל"נית, כלומר דירה או נכס למגורים בישראל". כך, הסביר, "אנחנו מעבירים את הכוח לאנשים: הציבור צריך לשלוט בכספו וגם להרוויח תשואה הולמת בהשקעה סולידית. בנוסף, אנו מציעים פתרונות אשראי מותאמים באמצעות מודל קהילות".
שחקנית הפינטק הוקמה ב-2014, על ידי אייל אלחייאני, אסף שלוש וורדה לוסטהויז, לשעבר היועצת המשפטית של בנק ישראל. עד היום עברו בפלטפורמה של טריא יותר מ-10 מיליארד שקלים. ב-2022 טריא – המונה 55 עובדים – הפכה לציבורית בבורסת תל אביב.
"פלטפורמות ההלוואות שלנו", הסביר מעוז, "מבוססת על אלגוריתם שמעניק ציון אשראי לכל לווה ומנסה לנבא את יכולת ההחזר שלו, באמצעות איסוף מידע מרשתות חברתיות, אפליקציות ומאגרי מידע שונים".
פתרונות האבטחה החדשים והמתקדמים של טריא
"בהיבט הטכנולוגי", הוסיף מעוז, "תשתיות החברה תומכות במגוון עננים וממשקים, ומאפשרות לממש מדיניות אבטחת מידע מחמירה בסביבת עבודה היברידית".
"בחנו לעומק ומיפינו את כלל סיכוני האבטחה שלנו", אמר מעוז, "והבנו שעלינו להחליף את פתרון האבטחה הישן שלנו, שלא עמד בדרישות האבטחה העדכניות. פתרונות סימנטק (Symantec) מבית ברודקום (Broadcom) בעולם שירותי אבטחת הקצה, SSE – הם שמתאימים לנו. הגדרנו מדיניות אבטחה, ערכנו בדיקת היתכנות, PoC, ואז ערכנו פרויקט להטמעת מערך האבטחה, בשיתוף אנשי נספרו (NESSPRO), נציגת ברודקום בישראל, ואנשי טראסטנט (Trustnet), להם צוות מקצועי המתמחה באינטגרציה והטמעת פתרונות SSE".
"קיבלנו אוסף של יכולות אבטחה משולבות", הסביר מעוז, "היכולות ממוקדות ענן, כוללות גישה לרשת בתפישת 'אפס אמון' (ZTNA), מתווך אבטחת גישה לענן (CASB), פיירוול כשירות (FWaaS), שער אינטרנט מאובטח (SWG) ומערכת הגנה על מידע (DLP). יש לנו כיום קישוריות מאובטחת, באמצעות שירותים מבוססי ענן, שמייתרים את הצורך לחבר משתמשים ישירות לרשת הארגונית. המענה מפחית את המורכבות של הרשת ומצמצם את החשיפה של ה-IT בארגון לאיומים נוספים. השילוב של ניטור חוויה דיגיטלית, DEM – הקל על ניטור האפליקציות, המכשירים וביצועי הרשת, והגדיל את תפוקת המשתמשים. קיבלנו אבטחה חזקה, הבאנו לצמצום סיכונים ופישוט תפעולי, עם נראות עמוקה על התנהגות המשתמשים והיישומים, הגנה משופרת על נתונים, מניעת הקצאות-יתר של גישה פריבילגית ומניעת חדירה של נוזקות וכופרות. עוד תועלת שקיבלנו: שליטה על ההוצאות ועלויות צפויות. הפרויקט ארך ארבעה וחצי חודשים והסתיים באחרונה".
אסף טויזר, מנהל אבטחת המידע של טריא. צילום: יח"צ
"דוגמה ליכולת לשלב הבנה עסקית עם מומחיות טכנולוגית"
אסף טויזר, ראש תחום הייעוץ ב-טראסטנט, המשמש מנהל אבטחת המידע של טריא, ציין כי "הבחירה בסימנטק והטמעת פתרון ה-SSE שלה בטריא היא דוגמה ליכולת לשלב הבנה עסקית עם מומחיות טכנולוגית. המערכת, המבוססת על עקרונות 'אפס אמון', הוטמעה בסביבה מורכבת, במהירות ובאופן מבוקר, והביאה לנראות ובקרה מקצה לקצה, עמידה בדרישות רגולציה ושיפור משמעותי בהגנת הסייבר".
"סגרנו לא מעט חורי אבטחה", סיכם מעוז, "שיפרנו באופן דרמטי היבטים רבים בעולם הגנת הסייבר. ב-2026 אשן קצת יותר טוב בלילה, בשל הטמעת הפתרונות הללו. אנשי נספרו וטראסטנט העניקו לנו תמיכה מקצועית לכל צורך שנוצר, עם הבנה מעמיקה. המערכת שלנו פועלת כיום בצורה חלקה".
02/09/25 15:17
8.41% מהצפיות
מאת אנשים ומחשבים
מטבע הקריפטו וורלד ליבריטי פייננשל (WFL) של משפחת טראמפ, שהחל אתמול (ב') להיסחר, רשם ביום המסחר הראשון שלו ירידה תלולה של 12%.
המיזם, שנסחר לפי הסימול SWLFI$, נסחר בשעות הבוקר של יום האתמול בקצת יותר מ-30 סנט ליחידה, אולם בהמשך המסחר הוא הלך וירד, ובסיומו שערו עמד על 0.246 דולר. שער זה מעניק ל-WLF שווי שוק של כשבעה מיליארד דולר – מה שמעמיד אותו במקום ה-31 בקרב מטבעות הקריפטו.
מיזם הקריפטו של משפחת טראמפ הושק בספטמבר אשתקד. בחודש יולי השנה המטבע הפך לסחיר – מה שמאפשר לרכוש ולמכור יחידות שלו בשוק החופשי. גורמים בשוק הקריפטו מעריכים שמשפחת טראמפ אוחזת ב-75% מהמיזם, והעיתון הכלכלי האמריקני וול סטריט ג'ורנל דיווח שהמסחר במטבע צפוי להגדיל את הונה של המשפחה בכמישה מיליארד דולר. סוכנות הידיעות רויטרס דיווחה שמאז השקת WLF, ההכנסות הישירות מכך למשפחת טראמפ הסתכמו בחצי מיליארד דולר.
WLF הוא מטבע שכבר זוכה למחזוריות רבה בשוק הקריפטו, ואתמול הוא נסחר בבורסות קריפטו מובילות, בהן בינאנס.
ביקורת סביב מעורבות משפחת טראמפ במיזם
מעורבות משפחתו של נשיא ארצות הברית במיזם זכתה לביקורות נוקבת, מאחר שכשנשיא, טראמפ רשאי לקבוע את המבנה הרגולטורי והמדיניות הרגולטורית של המסחר בשוק הקריפטו בארצות הברית. החשש הוא כי טראמפ יטה את המדיניות לטובתו ולטובת המיזם של משפתו.
יצוין כי עם השקת המיזם, עוד בטרם טראמפ נבחר שוב לנשיא האמריקני, היו משקיעים שאמרו שהם שמים בו את כספם עקב הקשר שלו לטראמפ, מתוך הערכה שקשר זה יעלה את ערכו בעתיד.
02/09/25 16:34
8.41% מהצפיות
מאת אנשים ומחשבים
הפריצה של הבינה המלאכותית היוצרת לחיינו הפכה את האינטרנט לחגיגה של יצירה, אבל גם לחגיגה של גזל: זה מתחיל בחברות הבינה המלאכותית עצמן, שהרשו לעצמן לגנוב תוכן של אלפי אתרים ללא רשות היוצרים, ולאמן את המודלים שלהן עליו, ממשיך במנועי יצירת תמונות שלומדים ומאומנים על יצירות של אומנים, שלא זוכים לתגמולים וגם הם לא נתנו את רשותם להשתמש ביצירה שלהם, ונגמר ביצירות חדשות בעשרות אלפים, שמפרות זכויות יוצרים בכך שהן מעתיקות דמויות מוכרות וקניין רוחני ובאופן כללי, יותר מדי "שואבות השראה" מיצירות קיימות ומוגנות.
כמובן, התביעות לא איחרו לבוא. סדרה של תביעות שמתנהלות כרגע בארצות הברית ממחישות את הבעייתיות שבמתיחת העיקרון של "שימוש הוגן" ביצירה למקומות מוגזמים. כך, למשל, Stability AI נתבעה על שימוש בתמונות מוגנות בזכויות יוצרים לאימון המודלים שלה, אנת'רופיק, החברה שמאחורי Claude, רכשה ספרים מוגנים בזכויות יוצרים כדי לאמן את המודלים שלה ונתבעה בשל כך (ובשבוע שעבר הגיעה להסדר עם התובעים), ומטא נתבעה על מקרה דומה. בחלק מהתביעות השופטים קיבלו את טענת השימוש ההוגן, אבל הן רק ממחישות את הבעייתיות הכללית של שימוש בתוכן מוגן בזכויות יוצרים של אחרים לטובת אימון או יצירות של GenAI, מבלי רשות ומבלי לתגמל את היוצר המקורי.
לחלל הזה נכנסה Bria.ai. שמה של החברה בעברית הוא בריאה, וזה לא מקרי. החברה נוסדה ב-2020, חתמה על הסכמים עם מאגרי תמונות גדולים כמו Getty Images ,FreePic ו-StockShutter, ומציעה מודלי יצירת תמונות וגרפיקה – כשירות או בהטמעה במערכות של הלקוחות, או אפילו במודל פיתוח – שהם בבחינת "סחר הוגן" של בינה מלאכותית יוצרת. החברה מציעה פלטפורמה שבה המודלים היצירתיים אומנו על תכנים ותמונות ברישיון, ועל כל יצירה נגזרת שהמודל יוצר מתמונה קיימת שיצר בן אנוש – הוא מתוגמל על השימוש. אם תרצו, מדובר ב-"ספוטיפיי של ה-AI". בריאה מונעת את הגזל ומאפשרת ליוצרים להמשיך ולראות ברכה בעמלם – גם בעידן שבו כל אחד יכול, במחי פרומפט אחד, לגנוב את התוכן שהם יצרו בעמל רב.
"הרגולציה בוא תבוא"
"כשחברה כמו OpenAI לוקחת תוכן מסטודיו ג'יבלי, זה רובין הוד הפוך. זה לא סיפור טוב", אומר לי בראיון ד"ר יאיר עדתו, המייסד של בריאה. "אין לך יותר תמריץ לייצר תוכן חדש. בעמק הסיליקון יש את הנרטיב של נרוץ מהר ונשבור דברים – אבל זה לא בר קיימא. אנחנו מאמינים שבסוף תהיה רגולציה של הנושא. אפשר ללכת ל-Midjourney, אבל אפשר גם ללכת ל-Getty Images ולייצר תמונות".
ד"ר עדתו מסביר את התפיסה שעומדת מאחורי החברה: "אנחנו כבר שנה וחצי משלמים ליוצרים. אותו דבר קרה עם פירט ביי ונאפסטר בשעתן. יש הרבה מאוד ארגונים שלא יסכימו לעבוד עם גופים שלא מסדירים את (תגמול – נ"ל) היוצרים, ויהיה מי שירצה לרשום על זה זכויות יוצרים". "עובדים איתנו משרדי פרסום, חברות משחקים ועוד, והם רוצים לבנות את התוכן בידיעה שהם לא לוקחים סיכון", ציין ד"ר עדתו.
לדבריו, "הרגולציה בוא תבוא, כי לא יכול להיות שינוי כל כך מהותי בצורה שהאנושות חושבת על תוכן מבלי שתהיה אסדרה".
"אני מבטיח לך שכל הדאטה שלנו חוקי ושאנחנו משלמים ליוצרים", הוא מתמצת את המהות של הפלטפורמה. "בכל רבעון אנחנו מוציאים דו"ח בנושא, עד לרמת התמונה, והיוצרים מקבלים תשלום". ד"ר עדתו אומר ש-"עד סוף השנה נאפשר גם ליוצרים עצמאיים להירשם במנוע שניצור, והם יוכלו לקבל ערך על יצירותיהם. אנחנו חושבים על פתרונות ליוצרים עצמאיים וגם לקניין רוחני עילי (Premium IP) כמו קפטן אמריקה, ועל תוכן שעושים לו רישוי למוצרים אחרים".
האם אתה סבור שריבוי הטכנולוגיות היוצרות שמחליפות יוצרים בשר ודם לא יעלימו את העוסקים במקצוע?
"חד וחלק – לא. כל מהפכה טכנולוגית משנה את שוק העבודה, אבל אני לא מאלה שמאמינים שלא יהיו יותר מעצבים, צלמים ומפתחים. יהיו פחות, אבל הם יהיו יותר יעילים".
ד"ר עדתו מציין כי "ב-2007 הייתי בכנס הראשון שלי. פרופ' אמנון שעשוע היה המרצה הראשון על הבמה והוא אמר שבתוך 10 שנים לא תהיה הצדקה לקנות מכונית. והנה, עינינו הרואות, קרוב ל-20 שנה אחר כך ועדיין נמכרות הרבה מאוד מכוניות. יקרה בדיוק אותו הדבר בעולמות של הקריאייטיב. אנשי הקריאייטיב יוכלו, ויכולים כבר כיום, לעשות יותר, אבל הם לא ייעלמו".
"בסופו של דבר זה שוק שיש בו כשל, וצריך לתקן את הכשל הזה. אחת הדרכים היא מה שאנחנו עושים. דרך אחרת זו רגולציה. בסופו של דבר, אם לא נתקן אותו, העולם יהיה מקום מאוד משעמם", מסכם המייסד של בריאה.
02/09/25 11:36
7.48% מהצפיות
מאת אנשים ומחשבים
מערך מחשוב היברידי הוא לא רק ג'אגלינג: זהו מופע אקרובטי מלא של עננים פרטיים, ציבוריים, עומסי עבודה של AI ודאטה סנטרים מסורתיים – הכל יחד. דל (Dell Technologies) השיקה באחרונה פלטפורמת אוטומציה חדשה לניהול ענן, מחשוב קצה, ו-AI. פלטפורמת תזמור התוכנות פותחה בישראל ומטרתה לפשט ולייעל את ניהול מערכות ה-IT בארגונים.
"נוף ה-IT ההיברידי בימינו הוא הכל, מלבד פשוט. בין מערכות לגאסי (מורשת), מערכות ישנות מדור קודם, דאטה סנטרים רחבי ידיים, ארכיטקטורות מפוזרות, פלטפורמות מקוריות בענן ועומסי עבודה של בינה מלאכותית – ניהול של כל זה באופן ידני הוא אטי, נוטה לשגיאות ולא ישים", אמר גיל שניאורסון, סגן נשיא וראש מרכז הפיתוח של דל בישראל. "פלטפורמת האוטומציה שלנו חותכת את המורכבות הזו על ידי איחוד הסביבות הללו תחת מסגרת אוטומציה אחת וחזקה. הפלטפורמה הוקמה על מנת להפוך את האתגר למנוע צמיחה".
"להתרכז בחדשנות ובתוצאות עסקיות – ולא רק בטכנולוגיה"
לפי שניאורסון, "ארגונים נמצאים תחת לחץ עצום, לתחזק מערכות קיימות ולמתן מענה לחדשות. כך, ניהול מחזור החיים הופך מתהליך כבד לפרקטיקה רציפה, מה שמאפשר לארגונים לפרוס עננים פרטיים תוך שעות, לנהל אתרי קצה מבוזרים בביטחון, ולאמץ בינה מלאכותית במהירות ובגמישות. כך, אנו מאפשרים ללקוחות הארגוניים שלנו להתרכז בחדשנות ובתוצאות עסקיות – ולא רק בטכנולוגיה".
הפלטפורמה מפשטת ומאיצה את ניהול ה-IT בארגונים ומאחדת ענן פרטי, רכיבי קצה ובינה מלאכותית – תחת שכבת אוטומציה אחת, עם AIOps וניהול מלאי מרכזי.
הפלטפורמה נועדה לתת מענה ללחצים הגוברים על מחלקות ה-IT. אלו נדרשות לתמוך במקביל ביישומים מסורתיים' כמו בסיסי נתונים ומכונות וירטואליות, ובדרישות חדשות כגון AI, קונטיינרים ומחשוב קצה. לפי נתוני אקסנצ'ר (Accenture), בין המנהלים בארגונים, 88% מעריכים שבשנים הקרובות הם יידרשו להתמודד עם יותר שינויים, מה שמחייב גישה דינמית וגמישה לניהול עומסי העבודה.
לפי ענקית ה-IT, "הפתרון החדש מאפשר להקים ענן פרטי הרבה יותר מהר ובקלות, עם תהליך המצמצם עד 90% פחות שלבים – לעומת פריסה ידנית".
כך, בתוך כשעתיים וחצי ניתן להפעיל אשכולות מוכנים לעבודה, בלא צורך בהתערבות ידנית.
בכנס השנתי שערכה דל באחרונה בארה"ב, נוספה תמיכה ב-VMware וברד האט (Red Hat), ובקרוב תתווסף גם תמיכה בנוטניקס (Nutanix).
תשתית המערכת מופרדת, וכך היא מאפשרת להרחיב את היקפי המחשוב והאחסון לחוד, לשפר ניצולת ולהפחית עלויות, לצד הבטחה של רציפות ויציבות תפעולית.
ניהול מרכזי של סביבות קצה עם Dell NativeEdge
יכולת נוספת היא ניהול מרכזי של סביבות קצה, עם Dell NativeEdge, שנועד לנהל פריסה ומחזור חיים של אתרי קצה ומרכזי נתונים מבוזרים. הפתרון מספק את כל היכולות של תשתיות HCI מסורתיות, לצד אפשרויות לניהול סביבות מבוזרות, ואפשרות למעבר הדרגתי מסביבות VMware.
הפלטפורמה כוללת קטלוג של פתרונות מוכנים ומאומתים בתחום הבינה המלאכותית, בהם פלטפורמות LLM ו-RAG. כך, הסבירו בחברה, "הפתרון מקצר משמעותית את הדרך מהוכחת היתכנות לכניסה לייצור, ומאפשר לארגונים להאיץ את 'הזמן לערך' ביישומי בינה מלאכותית".
"למדנו עם השנים שפישוט הוא הדבר החשוב ביותר", סיכם שניאורסון, "אנחנו מאמינים שהעולם עובר לארכיטקטורות נפרדות בגלל הכלכלה, בגלל היכולת לעבור בין 'ערימות' IT שונות, בגלל עומסי העבודה של ה-AI, שהם שונים ודורשים מענה שונה. פישוט עוסק באוטומציה וביכולת להגדיר, ואז פשוט לתאם ולהפעיל דברים".
הפלטפורמה תוצג בראשונה בכנס DTF הקרוב של החברה בישראל, שיערך ב-15 בספטמבר.
02/09/25 14:15
7.48% מהצפיות
מאת אנשים ומחשבים
במאמר "מהי רמת הבגרות של ארגונכם למהפכת ה-AI – סקירת מודל להערכת הבגרות הארגונית ל-AI" שכתבתי ופורסם באפריל האחרון, סקרתי מודל של ארבעה שלבים בתהליך ההתבגרות של ארגון בנושא AI. המאמר מבוסס על מחקר שבוצע במרכז לחקר מערכות מידע, CISR הפועל ב-MIT, תחת הכותרת 'Building Enterprise AI Maturity', והוכן על ידי החוקרים – פרופ' פיטר וייל, ד"ר סטפני וורנר ו-אינה סבסטיאן. המחקר מציג ארבעה שלבים של בגרות ומוכנות ליישום AI.
במאמרי מאפריל הצגתי, כאמור, את שלבי הבגרות ל-AI באמצעות מטריצה המציגה ארבעה שלבים והמאפיינים העיקריים בכל שלב: במהלך 2025, קבוצת החוקרים ד"ר וורנר, מנהלת וחוקרת ראשית ב-CISR, פרופ' וייל, יו"ר וחוקר בכיר ב-CISR, ופרופ' יבגני קאגנר מביה"ס למנהל עסקים IESE ואף הוא חוקר ב-CISR – החליטה לבחון האם ארגונים מצליחים לממש את התועלות הטמונות ב-AI וללמוד יותר על הקשר בין מימוש התועלות והשלב בבגרות ה-AI בו הארגונים נמצאים.
הדו"ח שהם פרסמו 'Grow Enterprise Maturity for Bottom-Line Impact' מראה שבמהלך הזמן שעבר מאז המחקר הראשון, ארגונים מצליחים להתקדם במסע הבגרות שלהם.
הטענה המרכזית במחקר היא שכדי שארגונים יגיעו לביצועים פיננסיים מעל הממוצע, עליהם להתקדם משלב בגרות 2 במודל שהוצג (פיילוטים ובניית כישורים) לשלב בגרות 3 (פיתוח והטמעת תהליכי עבודה מבוססי AI)
המחקר הדגים כי האימפקט הגדול ביותר הוא במעבר משלב 2 (פיילוטים ובניית כישורים) לשלב 3 (פיתוח והטמעת תהליכי עבודה מבוססי AI). בשלב 2 הארגונים בונים את הכישורים הנדרשים ל-AI, כגון איתור היישומים שיכולים להשתמש ב-AI, פישוט ואוטומציה ותהליכי ניסוי. בשלב 3 הארגונים שפיתחו את היישומים עוסקים בהטמעת היישומים בארגון ובהרחבת השימוש ביישומים.
ארבעת הנושאים שעל הארגונים להתמקד בהם
המחקר והראיונות עם המנהלים, מצביעים על ארבע קטגוריות של נושאים שעל הארגונים להתמקד בהם כדי להבטיח מעבר מוצלח לשלב בגרות 3 ובהמשך לרמה 4.
הנושאים הם:
אסטרטגיה – על הארגון לקשור בין המטרות העסקיות והאסטרטגיות שלו, לבין ההשקעות ב-AI, על מנת להבטיח את קיומם של יעדים מדידים ובעלי כושר גידול מבחינת הערך.
מערכות – כדי להפוך את הארגון לארגון המיישם מערכות אינטליגנטיות לרוחב כל הארגון, הוא נדרש לבנות וליישם ארכיטקטורה מודולרית, מבוססת על פלטפורמות המסוגלות לעבוד אחת עם השנייה (Interoperable Platforms) על בסיס אקוסיסטם נרחב של נתונים.
סנכרון – גיבוש צוות עובדים המוכן לעידן ה-AI, הגדרת תפקידים מתאימה ועדכון תהליכי העבודה בעקבות הפעלת מערכות מבוססות בינה מלאכותית.
משילות והסדרת השימוש – פיתוח והטמעת נהלי עבודה המבוססים על שקיפות, אחריות, ניטור, ניהול סיכונים, פיתוח יכולות של הבנת ההמלצות של המערכות (Explainable AI) וכדומה.
המחקר מציג שתי דוגמאות של ארגונים וכיצד הם יישמו את ארבעת הנושאים הנ"ל – חברת ביטוחי החיים וניהול השקעות והעושר Guardian Life Insurance Company of America בעלת מחזור של 14.5 מיליארד דולר, וחברת הפצת הגז הגדולה באירופה Italgas, המשרתת כ-13 מיליון לקוחות באיטליה וביוון. המחקר סוקר כיצד כל אחת מחברות אלה פעלה בכל אחד מארבעת הנושאים הנ"ל, כדי לקדם את בגרות הבינה המלאכותית שלה. המעוניינים ללמוד עוד על הפעילות של שני ארגונים אלה בכל אחד מארבעת הנושאים – מוזמנים לקרוא את המחקר.
הטענה המרכזית במחקר היא שכדי שארגונים יגיעו לביצועים פיננסיים מעל הממוצע, עליהם להתקדם משלב בגרות 2 במודל שהוצג (פיילוטים ובניית כישורים) לשלב בגרות 3 (פיתוח והטמעת תהליכי עבודה מבוססי AI).
נדגיש כי ארבעת הנושאים שהוצגו במחקר מהווים תת-קבוצה של מימדי המוכנות לבינה המלאכותית שהצגתי במאמר "ששת מימדי המוכנות להטמעת AI בארגון", שהתפרסם במאי 2025.
הכותב הוא יועץ בכיר לטרנספורמציה דיגיטלית, BDO Consulting, ומרצה בתוכניות MBA במכללות אונו ורופין
02/09/25 14:47
7.48% מהצפיות
מאת אנשים ומחשבים
מאת: הילל יוסף
"האתגרים של מנהלי אבטחת המידע רק הולכים ומתעצמים. הם נדרשים לספק יותר קישורים ויכולות לעבודה מרחוק למשתמשים, ומנגד – להגן עליהם בשטח התקיפה הפוטנציאלי הגדל ללא הרף. על כל זאת, נוסף אתגר הבינה המלאכותית בסייבר, וכדי לענות על הצורך ולהגן על הארגונים, אנחנו מציעים להם היצע כולל ורחב של פתרונות אבטחת סייבר, היוצרים מעטפת הגנה רב-שכבתית לכל ארגון, מקטן ועד גדול – ובכל מגזר פעילות", כך אמר אלכס שטיינברג, מנהל מוצרי ESET בחברת קומסקיור בישראל.
שטיינברג התראיין לקראת כנס לקוחות VIP אותו עורכת קומסקיור. הכנס, בהפקת אנשים ומחשבים, ייערך ביום ה', 4 בספטמבר, באולם האירועים LAGO בראשון לציון.
לדבריו, "ארגונים צריכים להגן על 'נכסי הכתר' שלהם מפני שלל איומים. לצד האיומים החיצוניים, יש חשש לדליפות מידע העלולות לנבוע מאיום פנימי – עובד ממורמר שגורם לנזק בזדון, או ששילמו לו, או פעולה שנעשתה בשוגג. ההגנה צריכה להיות בכל שכבות המחשוב: ברמה האפליקטיבית, בתוכנות מחשבים, בשרתים ובמערכות ההפעלה, בענן וגם באון-פרם (On-Prem), וכמובן – במייל". שטיינברג הוסיף כי על הארגונים לדאוג גם להלימה לרגולציות, לרבות תיקון 13 לחוק הגנת הפרטיות, אשר נכנס לתוקף באחרונה. הפרת התקנות תביא לקנסות, אשר יושתו על בעלים ועובדים בכירים בחברות.
ותק וניסיון של עשרות שנים
"קומסקיור", אמר שטיינברג, "היא חברת הפצה, המתמחה בשיווק פתרונות אבטחת מידע והגנת סייבר מתקדמים. אנו עושים זאת באמצעות מערך של מאות משווקים ואינטגרטורים. הפתרונות משלימים זה את זה ויוצרים מעטפת אבטחה כוללת לארגון".
"אנו מייצגים שנים רבות את חברת האבטחה ESET בישראל. חברת אבטחת המידע הוותיקה מתמחה בפיתוח פתרונות הגנה מתקדמים עבור עסקים, ארגונים ומשתמשים פרטיים, עם מוצרי הגנה רב-שכבתית, מערכות למניעת חדירה, הגנת מכשירים ניידים ויישומים ייעודיים לאבטחת תשלומים דיגיטליים. ה-AI של ESET הופכת כל ארגון למוכן יותר, גם בלי צוות סייבר ייעודי. המערכות מציעות תגובה חכמה, עמידות לרגולציה, והגנה כוללת מותאמת אישית לכל ארגון לפי צרכיו ודרישותיו".
גיל שטרן, מנהל השיווק של קומסקיור. צילום: מושיק ברין
עוד פתרונות הגנה ואבטחת מידע לארגונים
לצד זאת, חברת קומסקיור עונה לצרכים של הארגונים השונים בתחום מניעת זליגת המידע הארגוני הרגיש. "אנו מציעים את פתרון ה-DLP של סייפטיקה (Safetica), המאפשר להגן על קוד רגיש שפותח בארגון, או אפילו תיק רפואי שהועלה לפלטפורמת ChatGPT – וכך לשמור על המידע הרגיש. אף שהמוצר יושב על הרשת הארגונית, הוא גוזל רק פחות מ-3% מהמשאבים. הוא מתממשק באופן פשוט וחלק עם מערכות ה-IT הארגוניות, לרבות מערכות אבטחת המידע ובראשן – SIEM ו-SoC. יתרון חשוב של סייפטיקה הוא ביכולתה לעבוד בסביבת מחשוב היברידית", מספר גיל שטרן, מנהל השיווק של קומסקיור.
"לאחרונה התחלנו להפיץ באופן בלעדי בישראל פתרונות מבדקי החדירה היזומים של חברת הסטארט-אפ הישראלית אלמנט סקיוריטי (Element Security). הפתרון שלה מבצע תקיפות סייבר וניסיונות פריצה יזומות, אמיתיות ומתמשכות, שנועדו לספק תמונת מצב מדויקת של כל החולשות בארגון. כך, הוא מסייע לארגונים לאתר ולבחון את החולשות והחשיפות שמסכנות את הארגון ומאפשרות לתוקפים גישה למידע רגיש. הפלטפורמה לא רק מזהה חולשות, אלא גם בודקת אילו מהן ניתנות לניצול בפועל על ידי תוקפים, ומדרגת אותן לפי השפעתן על תפקוד העסק במקרה פגיעה. כך ארגונים יכולים להימצא תמיד צעד אחד לפני התוקפים והאיומים".
"פתרון נוסף הוא SURF Security", ציין שטרן. "הדפדפן הפך לכלי העבודה המרכזי בארגונים, ולכן התקפות פישינג, דליפות מידע ונוזקות מהוות איום משמעותי על המידע העסקי. הפתרון מספק הגנה מתקדמת על הדפדפן ועל נתוני הארגון בגישת אפס אמון (Zero Trust), תוך שמירה על חוויית משתמש חלקה. הדפדפן המאובטח של SURF מוֹנע פישינג, מזהה דיפ פייק ומגן על מידע רגיש – גם בלי VPN – ועומד בתקנות הגנת הפרטיות והאבטחה".
"אנחנו מזהים את הצרכים המתפתחים של הלקוחות שלנו בתחום הגנת המידע שלהם. מתוך צפי של סוגי התקיפות קדימה ושל יכולות ה-AI המתפתחות, אנחנו ממשיכים לצרף לשורותינו פתרונות סייבר מעולים כדי לוודא שההגנה על המידע של הארגון תהיה החזקה ביותר ומותאמת לצרכיו", סיכם שטרן.
02/09/25 15:45
7.48% מהצפיות
מאת אנשים ומחשבים
לאומית שירותי בריאות סיימה באחרונה הטמעה של פתרון חדשני, מבוסס בינה מלאכותית יוצרת, שלדבריה מייעל בצורה משמעותית את תהליכי הבקרה הכספית בהתחשבנות בין קופת החולים לבתי החולים. מדובר בכל מה שקשור לחיובים שבתי החולים שולחים בכל חודש לקופת החולים, עבור טיפולים שניתנו לחברי הקופה, על סמך הפניות והתחייבויות של לאומית (למשל טופס 17). הפרויקט בוצע בשיתוף מטריקס DnA והיקפו המוערך הוא מאות אלפי שקלים.
מבחינת בית החולים, ברגע שהמטופל מגיע אליו עם האישור מקופת החולים, המשמעות היא שהקופה מתחייבת לשלם עבור הטיפולים. אולם, לפני שהתשלום מתבצע מתנהל תהליך בקרה מורכב וארוך. מדובר בהיקפי תשלומים של מיליוני שקלים בשנה.
ההתנהלות המקובלת היא שבתי החולים שולחים חשבון עם פירוט הטיפול והתעריף לתשלום, על פי קודים המשותפים לבית החולים ולארגון הבריאות. עד היום, בלאומית, תהליך הבקרה התבסס על בדיקה ידנית, ברובה של רופא מטעם הקופה, שמשווה בין קוד החיוב לסיכום הטיפול הרפואי שרופא בית החולים כתב. במקרים שבהם הוא חושב שיש חוסר תיאום ביניהם מתחיל תהליך ערעור מורכב וארוך בהתדיינות בין הקופה לבית החולים.
אחד הדברים המשמעותיים שמעכבים את התהליך הוא העובדה שיש עשרות קודים. הבקרה היא מדגמית, על אלפי שורות של חיוב עם קודים מתאימים.
פרויקט GenAI. לאומית שירותי בריאות. צילום: ShutterStock
מה עושה המערכת?
המערכת שהוטמעה בלאומית אומנה על מודלי שפה גדולים (LLMs). היא יודעת לסרוק את כל חשבונות החיוב ולעבור עליהם. כמו כן, היא יודעת לקרוא את סיכומי הטיפול שרופאי בתי החולים כתבו ולהשוות כל אחד מהם לקוד הטיפול. המערכת מייצרת התראות בשלושה צבעים: ירוק, צהוב ואדום, על פי מידת הבדיקה הנדרשת, אם בכלל. תוצאות הבדיקה מגיעות לאותו רופא שבודק, והוא אמור להתרכז בחיובים שמסומנים באדום, ולבדוק האם החיוב נעשה לפי קוד נכון או לא. קוד שגוי עלול לעלות ללאומית אלפי שקלים ואף הרבה יותר.
בנוסף, התהליך הידני גזל עד כה משאבים רבים, בהם זמן יקר של רופאים ושחיקה גדולה של הצוות, והיה כר פורה לטעויות אנוש שכאמור, הביאו את קופת החולים לשלם סכומים רבים שהיא לא צריכה לשלם. המערכת מפסיקה את כל זה.
המטרה: ייעול מערכת הבריאות
לדברי רקפת יעקבי, סמנכ"לית מערכות מידע בלאומית שירותי בריאות, "בין האתגרים המרכזיים בפרויקט היה הצורך לשלב בין מערכות לגאסי AS400 של יבמ, שלאומית מבוססת עליהן, למערכות OpenAI ולעבד אותו, כך שיהיה מובן ומדויק עבור מודל ה-LLM. זאת, בנוסף על מאמצים לשלב כמה מודלים, על מנת להגביר את רמת האמינות של הממצאים. לצורך כך, שולבו בפתרון מודל שהתמקד בהשוואה ובקרה, ומודל נוסף, שהתמקד ביכולת לנמק באופן ברור ובשפה שהרופאים רגילים לעבוד איתה".
יעקבי הדגישה שהסיבה העיקרית שבגללה הוחלט ללכת על פתרון כזה היא תרומה לייעול מערכת הבריאות כולה – אתגר חשוב מאוד בימים אלה. "המערכת מאפשרת לנו לנתב כוח אדם רפואי למשימות איכותיות ולשפר משמעותית את היעילות התפעולית. בעקבות הפרויקט, אנחנו צפויים לחסוך מיליוני שקלים בשנה", הוסיפה.
אסף טימור, מנכ"ל מטריקס DnA, ציין כי "מדובר בפרויקט משמעותי, שמוביל לייעול תהליכים, לחיסכון במשאבים ולהפחתת עומס אדיר על הצוותים הרפואיים. עבדנו בשיתוף פעולה צמוד עם הצוות המקצועי של לאומית".
לאומית שירותי בריאות תשתתף בוועידת GenAI for All של אנשים ומחשבים, שתתקיים ביום ד', ה-22 באוקטובר, באולם האירועים איסט תל אביב. לפרטים נוספים ולהרשמה לאירוע לחצו כאן.