| 10:01:07 | ◀︎ | החופש הגדול בעמותת מחשבה טובה: בניית אתרים לקידום עסקים | |
| 10:31:20 | ◀︎ | פרפלקסיטי משפרת את התמלוגים של מוציאים לאור ועיתונאים | |
| 12:18:09 | ◀︎ | טיקטוק מפטרת מאות: מחליפה בודקי תוכן אנושיים ב-AI | |
| 13:16:26 | ◀︎ | עידית נגר מונתה למנכ"לית טקיוניטי | |
| 14:15:31 | ◀︎ | מפקד ממר"ם החדש: אל"מ גלעד יבין | |
| 14:43:28 | ◀︎ | מאסק מימש את הבטחתו ותבע את אפל ו-OpenAI – מדוע? | |
| 14:52:22 | ◀︎ | מהן הסכנות שב-וייב קודינג ואיך נמנעים מהן? | |
| 15:27:19 | ◀︎ | "בלי תשתיות ריבוניות – נהיה תלויים באחרים, וזהו איום אסטרטגי" | |
| 15:36:28 | ◀︎ | "אם המצב יימשך, ענף הון-סיכון בישראל עלול לקרוס" | |
| 16:18:33 | ◀︎ | מודעות דרושים ממש לא סטנדרטיות בתחום הסייבר | |
| 17:07:31 | ◀︎ | פתרון חדש מסייע לקישוריות בדאטה סנטרים המוקדשים ל-AI | |
| 17:11:03 | ◀︎ | החל ב-2027: גוגל לא תאפשר להתקין אפליקציות שהיא לא אישרה | |
| 17:33:21 | ◀︎ | עוד אקזיט: אוקטה רוכשת את אקסיום ב-80 מיליון דולר |
הכותרות שעניינו הכי הרבה גולשים בדף זה
26/08/25 16:18
11.54% מהצפיות
מאת אנשים ומחשבים
הנה דבר שסביר להניח שלא הייתם חושבים עליו כשזה מגיע למודעות דרושים: בשנים האחרונות חלה עלייה מאוד בולטת בפוסטים שפושעי סייבר מפרסמים בדארקנט לטובת גיוס האקרים למתקפות שלהם. "נראה שהעסקים של פושעי הסייבר בשגשוג", אמר מומחה אבטחה, "אם היקף המודעות לגיוס האקרים ברשת האפלה כמעט שהוכפל במהלך השנים האחרונות".
לפי מחקר חדש של חברת אבטחת הסייבר ReliaQuest, מספר
המגייסים פועלים כאילו שמדובר בסביבת עבודה לגיטימית
"חישבו על מודעות דרושים ופלטפורמות כמו לינקדאין", כתבו החוקרים בבלוג של ReliaQuest. "החיפוש והגיוס פועלים בצורה זהה. לפושעי הסייבר יש שוק עבודה משגשג משלהם ברשת האפלה".
החוקרים ציינו שהפושעים מחפשים מומחים בעלי כישורים מתקדמים, "כי מה שמניע אותם זה הרצון לשפר מיומנויות ולפעול כמחפשי עבודה בסביבה שלהם, כאילו הייתה זו סבירה, כזו שמשקפת שיטות גיוס לגיטימיות".
מהם הכישורים המבוקשים ביותר בקרב הרעים?
מאז 2023, הכישורים המבוקשים ביותר בקרב שחקני האיום הם כאלה שקשורים לאבטחת ענן ולאינטרנט של הדברים, וכן ניסיון בהנדסה חברתית בשפה האנגלית. עם זאת, ב-2024, ידע בבינה מלאכותית ויכולת ליצירת ולהפצת דיפ-פייק היו עוד מערך מיומנויות רצוי. השנה, הביקוש להאקרים דוברי אנגלית זינק פי 10.
השנה התפרסמו בדארקנט גם מודעות דרושים שחיפשו האקרים מיומנים בטכניקת ההנדסה החברתית המכונה ClickFix. זו נסמכת על הטעיית קורבנות ושכנוע שלהם להריץ נוזקות, במסווה של מה שנראה כמו בדיקת CAPTCHA טיפוסית.
כך, לדוגמה, פוסט שפורסם באפריל השנה בפורום Exploit, שתורגם מרוסית, פרסם מודעת דרושים לתפקיד למומחה בינה מלאכותית, והדגיש את העניין הגובר בשילוב אוטומציה המופעלת על ידי AI בתהליכי העבודה של פשעי סייבר.
"אנחנו מחפשים מומחה מוסמך שיעסוק בהגדרה, הדרכה ושילוב של בינה מלאכותית למשימות בדיקת חדירה על תשתית השרתים שלנו", נכתב במודעת ה-"דרושים".
מודעות דומות מתמקדות בידע במינוח של תחום מטבעות הקריפטו, זמינות מקוונת ותקשורת עסקית. "אם לא היית יודע אחרת, היית חושב שאתה קורא מודעת דרושים בעיתון סוף השבוע", ציינו החוקרים.
26/08/25 14:52
8.65% מהצפיות
מאת אנשים ומחשבים
לפני כמה חודשים כתבתי כאן על Base44, כלי הבינה המלאכותית שמאפשר לכל אחד ליצור אפליקציות, אתרים ותוכנות בעצמו, פשוט על ידי כתיבת שאילתה (פרומפט). מאז הספיקה Base44 להירכש על ידי וויקס, והתופעה של כתיבת קוד נרחבת באמצעות AI קיבלה כינוי משל עצמה – וייב קודינג (Vibe coding).
שלשום (א') חשף עמיתי, רן בר-זיק, ב-TheMarker כי מגייס שבנה אתר למחפשי עבודה באמצעות Base44 קיבל אתר עם פרצת אבטחה משמעותית, ופרטיהם של 2,421 מחפשי עבודה דלפו לרשת. לפחות 312 מהם ציינו במפורש שהם מחפשים עבודה באופן דיסקרטי, מה שאומר שבהכרח, הפרטיות שלהם נפגעה. הפגיעה, כך בכתבה של בר-זיק, הייתה חמורה שבעתיים, כי האתר חשף גם חוות דעת על המועמדים, את העובדה שהם מחפשים עבודה באופן דיסקרטי והיכן הם מועסקים כעת. מן הסתם, עובד שמחפש לעבור לתפקיד הבא בחברה אחרת באופן דיסקרטי לא רוצה שהמעסיק הנוכחי שלו ידע על זה. אלא שחשיפת הפרטים בהחלט מאפשרת למי רוצה להלשין עליו למעסיק הנוכחי – לעשות זאת. החלק הגרוע הוא שכל מה שהיה צריך כדי לחשוף את המידע הזה היה דפדפן אינטרנט.
הסיפור הזה חושף "צד אפל", של הקלילות שבה כל אחד יכול ליצור לעצמו שירות, תוכנה או אתר באמצעות בינה מלאכותית ו-וייב קודינג, ועד כמה מקומו של המתכנת האנושי או איש האבטחה שיעבור על הקוד עדיין משמעותי. זאת, במיוחד במקרים של יצירת בסיס נתונים שמכיל פרטים אישיים של אנשים, ובמיוחד לאור כניסת תיקון 13 לחוק הגנת הפרטיות לתוקפו לפני כשבועיים. התיקון מטיל חובות חדשות על כל מי שמחזיק מאגר נתונים שכזה, ובוודאי מישהו שמחזיק במאגר נתונים של מחפשי עבודה. בר-זיק, שבנוסף להיותו עיתונאי הוא מפתח תוכנה במקצועו, מדגיש גם את ההבדל בין שעשוע ביצירת אפליקציות כהוכחת היתכנות או משהו פנימי לבין מערכת פעילה וחשופה חיצונית (פרודקשן, בעגה המקצועית), שמכילה פרטים רגישים כמו במקרה שנחשף.
מה אומרים המומחים?
אז ליצירת אפליקציות בעזרת בינות מלאכותיות יוצרות יש גם צד בעייתי וחורי אבטחה אפשריים. מה עושים כדי להימנע ממקרה כמו זה שתיארתי כאן? ועל מי מוטלת האחריות לבדיקות האבטחה ומניעת פרצות – האם על ה-GenAI או שמא על המשתמש?
אם אתם יוצרים אתר, אפליקציה או שירות באמצעות בינה מלאכותית כזו או אחרת, שאיננו לשימוש עצמי או מהווה מוצר מעבר להוכחת היתכנות או שעשוע, כדאי להכניס אדם לתוך הלולאה
אלכס ויטוחנובסקי, מנהל מוצר בקומסקיור, שמפיצה פתרונות אבטחה לסייבר, אומר כי "ללא קשר לעובדה שהמועמדים ביקשו וציינו מפורשות שהליך הגיוס יהיה דיסקרטי וחסוי, גם יזם עצמאי או עובד יחיד שבונה אתר מבוסס AI ומחזיק במידע אישי, כמו קורות חיים של מועמדים, מחויב, לפי התיקון החדש לחוק, לשמור על הנתונים ברמת אבטחה בסיסית או בינונית. האחריות חלה על כל מי שמחזיק במידע אישי, ולא רק על חברות וארגונים, והחוק מאפשר להטיל קנסות כבדים על בעלי תפקידים במקרה של דליפה. פריצות כמו זו שנחשפה באחרונה ב-Base44 ממחישות עד כמה חשוב להטמיע אמצעי אבטחה מתקדמים כבר משלב הפיתוח, במיוחד בפלטפורמות No-code/Low-code, שבהן האחריות לאבטחה נופלת בעיקר על היוצר".
מה יוצר האתר צריך לבדוק?
לדברי ערן רונן, מנכ"ל משותף וסמנכ"ל אבטחת המידע של ג'מבו מייל, "האחריות המשפטית על דליפת מידע חלה באופן משותף הן על הפלטפורמה הטכנולוגית והן על החברה שיצרה את השירות באמצעותה, כאשר כל צד נושא באחריות להיבטים שונים של אבטחת המידע".
"מקרה זה מדגיש בעיה חדשה ומסוכנת בעידן שבו כל אחד יכול 'לתכנת' באמצעות AI. אי אפשר להטיל את כל האשמה על הפלטפורמה או לפטור את יוצר האתר מאחריות. כל צד כשל בתחומו", אמר.
"בראש ובראשונה", ציין רונן, "יש את האחריות הבסיסית, שחלה על יוצר האתר, המגייס. מרגע שהוא החליט לאסוף מידע אישי, ובמיוחד מידע רגיש כמו קורות חיים ופרטי חיפוש דיסקרטי, הוא הפך להיות 'בקר המידע' (Data Controller). תפקיד זה מטיל עליו חובת זהירות בסיסית".
"הטענה 'אני לא מתכנת' לא פוטרת אותו מאחריות. גם ללא ידע טכני, הוא חייב לבצע בדיקות פשוטות: האם הקישור הזה עובד? מי יכול לראות אותו? האם המידע שהוא רואה הוא רק שלו? 'סמכתי על הפלטפורמה' היא לא הגנה מספקת. כאשר אתה בונה בית באמצעות קבלן, אתה עדיין בודק שהדלת ננעלת. החובה לבחון את התוצר הסופי, במיוחד כשמדובר בפרטיות של אנשים אחרים, חלה על מי שיזם את איסוף המידע", הוסיף.
עם זאת, לדבריו, יש גם את האחריות של Base44, שהיא עמוקה ומערכתית. "כאשר חברה מנגישה כלי עוצמתי כמו בניית אפליקציות לקהל לא טכני, היא נוטלת על עצמה אחריות מוגברת לוודא שהתוצרים שהכלי שלה מייצר יהיו מאובטחים כברירת מחדל", אמר רונן. "יצירת קישור ציבורי לקובץ שמכיל את כל מסד הנתונים היא לא רק באג, אלא כשל ארכיטקטוני יסודי ועדות להיעדר מוחלט של תפיסת 'פרטיות בתכנון' (Privacy by Design). פלטפורמה כזו חייבת להניח שהמשתמש שלה אינו מומחה אבטחה ולבנות עבורו 'מעקות בטיחות' שימנעו טעויות קריטיות. במקרה הזה, הפלטפורמה לא רק נתנה למשתמש כלי, היא נתנה לו כלי פגום מיסודו שיצר סיכון באופן אוטומטי".
רונן הוסיף כי "בעידן החדש הזה האחריות מתחלקת: המשתמש אחראי על מה שהוא בונה וחייב לבדוק את התוצר, והפלטפורמה אחראית לספק כלים בטוחים כברירת מחדל, במיוחד כשהיא פונה לקהל הרחב".
אז אם אתם יוצרים אתר, אפליקציה או שירות באמצעות בינה מלאכותית כזו או אחרת, שאיננו לשימוש עצמי או מהווה מוצר מעבר להוכחת היתכנות או שעשוע, כדאי להכניס אדם לתוך הלולאה. החזון של אילון מאסק על סוכני כתיבת תוכנה שיחליפו את מיקרוסופט עוד רחוק ממימוש.
26/08/25 15:27
8.65% מהצפיות
מאת אנשים ומחשבים
"בינה מלאכותית כבר מוגדרת בעולם כתשתית לאומית קריטית, כמו חשמל או מים. ישראל, בינתיים, נותרת מאחור ואסור שזה יקרה. דו"ח ועדת נגל שהוגש באחרונה קורא לממשלה לפעול מיידית. אם לא נתעורר, ישראל תאבד את יתרון ה'סטארט-אפ ניישן'. אני קורא גם למגזר העסקי להאיץ את קצב אימוץ הבינה המלאכותית", כך אמר בני מלכה, CTO ראשי, דל (Dell Technologies) ישראל.
לדברי מלכה, "מדינות רבות מתייחסות כיום לבינה מלאכותית כאל תשתית חיונית. בינה מלאכותית איננה עוד כלי טכנולוגי ייעודי – אלא תשתית מרכזית שמעצבת כלכלה, ביטחון, בריאות וחינוך. כמו שלא ניתן לנהל מדינה מודרנית בלא חשמל או מים, אי אפשר לנהל אותה בעתיד בלא תשתית AI יציבה וריבונית. כבר היום מדינות רבות באירופה, אסיה והמפרץ מגדירות את ה-AI כתשתית ריבונית, הן מקימות מחשבי-על לאומיים, מרכזי נתונים יעילים ורגולציה מקומית שתגן על המידע של אזרחיהן".
"המלצות ועדת נגל משרטטות חזון חד וברור", ציין מלכה, "הקמת מטה לאומי לבינה מלאכותית בבעלות המדינה, הקמת מחשב-על ישראלי והשקעה של 25 מיליארד שקלים בתחום בשנים הקרובות. המשמעות היא פשוטה: אם לא נפעל עכשיו, נאבד את היתרון שלנו כאומת סטארט-אפ. ישראל מובילה במחקר ובחדשנות, אך ללא תשתיות ריבוניות נהפוך תלויים באחרים, וזהו איום אסטרטגי על עתידנו כמעצמת טכנולוגיה".
מחייב התגייסות של הממשלה והעסקים. אימוץ בינה מלאכותית בישראל. צילום: Shutterstock
"כל עיכוב כאן מסוכן"
"זה קריטי במיוחד למדינה כמו ישראל", אמר, "מדובר בסוגיה קריטית מאוד. ישראל מתמודדת עם אתגרים ביטחוניים ייחודיים, מערכת בריאות ציבורית דיגיטלית, מאגרים ביומטריים ושירותים ממשלתיים חיוניים. כאשר מערכות AI אינן בשליטתנו, אינן שקופות או מאוחסנות בשרתים זרים – זהו סיכון לאומי. מעבר לפגיעה אפשרית בביטחון, מדובר גם בפגיעה באמון הציבור. אם האזרח.ית חושש.ת שהמידע שלו.ה אינו מוגן, או שארגון פיננסי מרגיש חשוף – כל הבסיס הכלכלי והחברתי מתערער".
לגבי ההיערכות של המגזר העסקי בישראל לאימוץ טכנולוגיות AI, אמר מלכה כי "מצד אחד אנחנו רואים התלהבות עצומה. בסקר החדשנות האחרון שהחברה ערכה, 60% מהארגונים בישראל סימנו את הבינה המלאכותית כעדיפות אסטרטגית ראשונה. זהו נתון מרשים. אולם מנגד, 64% מהארגונים דיווחו שאינם מוכנים תשתיתית לעומסי AI. נתון זה גבוה בהרבה מעל הממוצע העולמי, שעומד על 46% בלבד. במילים אחרות: השאיפה קיימת, אך הקרקע שעליה היא נשענת – עדיין לא יציבה".
"יש השלכות לפער זה, בין הצורך העסקי לבין רמת המוכנות בפועל", הסביר, "הפער יוצר איום כפול. ראשית, ארגונים פרטיים במיוחד בתחומי הפיננסים, הביטחון וההיי-טק, הם הראשונים שנחשפים לסיכון. שנית, הממשלה רגילה להישען על המגזר העסקי, אך אם גם הוא אינו ערוך – המדינה עלולה למצוא עצמה בלא בסיס פעולה. המצב הנוכחי מוביל ל'עמדת המתנה' הדדית, וכל עיכוב כאן מסוכן".
"בעולם", אמר מלכה, "יש התמודדות עם האתגר הזה: באירופה מקדמים חקיקה מחייבת בדמות ה-European AI Act – חקיקה המגדירה את הבינה המלאכותית כתחום ריבוני עם רגולציה ברורה. מדינות המפרץ משקיעות משאבים עצומים בהקמת תשתיות מקומיות, מתוך הבנה ש-AI היא בסיס לעצמאות כלכלית וביטחונית. בארה"ב, התאגידים הגדולים משקיעים במחשוב עתיר ביצועים ובשבבים ייעודיים. המגמה העולמית ברורה והיא שכולם רצים קדימה. ישראל אינה יכולה להרשות לעצמה להישאר מאחור".
"נדרש כאן מהלך לאומי כולל, בדומה למבצע אסטרטגי רחב היקף", סיכם מלכה. "יש לממש גישה משולבת. המגזר העסקי חייב להמשיך להוביל בחדשנות, אך הממשלה מחויבת להבטיח את התשתית. זה אומר רגולציה חכמה, תמריצים, סבסוד וגם השקעה ישירה. ישראל אינה מתחילה מאפס, יש כאן חדשנות יוצאת דופן – אך חייבים לספק לה בסיס לאומי יציב".
לפרטים והרשמה לכנס Dell Technologies Forum שיערך באמצע ספטמבר – לחצו כאן.
26/08/25 17:11
8.65% מהצפיות
מאת אנשים ומחשבים
גוגל הכריזה על מהלך חדש, שלדעתה יעזור למנוע התקנה של אפליקציות מרושעות, ולא רק מחנות האפליקציות שלה. המטרה העיקרית של החברה היא לא לאפשר, בסופו של דבר, התקנה של אפליקציה שפותחה בידי מי שלא אושר על ידה – ולא משנה מהיכן מורידים אותה.
לפי גוגל, החל ב-2027, המשתמשים במכשירים שבהם מותקנת מערכת אנדרואיד מלאה ומעושרת כברירת מחדל לא יוכלו יותר להתקין אפליקציות של מפתחים שלא עבור תהליך של אישור על ידה.
האפליקציות שמורדות כיום מ-Google Play אמורות גם כך לעבור את התהליך הזה, ובכל מקרה, מפתחים צריכים לעבור תהליך אישור כדי להעלות אליה אפליקציות. כעת רוצה גוגל, כאמור, להרחיב את זה גם למפתחים שרושמים את האפליקציות שלהן להורדה דרך חנויות צד שלישי, וגם למפתחים שמציעים את האפליקציות שלהן כקובצי apk. שמורידים מאתרים ברשת.
המשתמשים לא יוכלו להתקין במכשירים שלהם אפליקציות של גורמים לא מאושרים, וזאת בניגוד למצב כיום, שבו ניתן לאשר התקנה באופן ידני מכל מקור.
לוח הזמנים שגוגל פרסמה מעלה שהיא תוציא את הפרויקט כבר באוקטובר הקרוב, אבל רק בגישה מקדימה, לפי הזמנות ייעודיות של החברה. במרץ 2026 היא תפתח את תהליך הרישום לכל מפתח שרוצה לקבל אישור, והחל בספטמבר של אותה שנה, "החוק" החדש ייכנס לתוקף – קודם כל בברזיל, אינדונזיה, סינגפור ותאילנד, ובתחילת 2027 בשאר העולם.
26/08/25 10:31
7.69% מהצפיות
מאת אנשים ומחשבים
חברת הבינה המלאכותית פרפלקסיטי (Perplexity) הכריזה על תוכנית מנויים חדשה בשם Comet Plus, שלטענתה מעניקה למשתמשים גישה לתוכן פרימיום ממוציאים לאור ועיתונאים מהימנים, תוך מתן מודל תגמול טוב יותר למוציאים לאור. "
Comet Plusמשנה את האופן שבו מוציאים לאור מקבלים תגמול בעידן הבינה המלאכותית", מסרה החברה בפוסט בבלוג שפרסמה. "ככל שמשתמשים דורשים אינטרנט טוב יותר בעידן הבינה המלאכותית, הגיע הזמן למודל עסקי שיבטיח שמוציאים לאור ועיתונאים ייהנו מתרומתם לאינטרנט טוב יותר."
תוכנית Comet Plus כלולה במנויי Pro ו-Max של החברה וזמינה גם כמנוי עצמאי תמורת חמישה דולרים לחודש.
פרפלקסיטי הציגה בחודש יולי האחרון את דפדפן Comet, המופעל על ידי בינה מלאכותית, שלדבריה מאפשר למשתמשים לענות על שאלות ולבצע משימות ומחקר מממשק יחיד.
לפי פרסום בבלומברג, פרפלקסיטי הקצתה 42.5 מיליון דולר לתוכנית חלוקת הכנסות, המתגמלת מוציאים לאור כאשר התוכן שלהם משמש את דפדפן Comet או את עוזרת הבינה המלאכותית שלה. הכספים שמגיעים מ-Comet Plus ישמשו את התוכנית כש-80% מההכנסות מיועדים למו"לים, ו-20% הנותרים מיועדים לחברה, כך נכתב בדיווח תוך ציטוט ראיון עם מנכ"ל פרפ0לקסיטי, ארווינד סריניבאס. עוד אמר לפי הדיווח, כי "בינה מלאכותית עוזרת ליצור אינטרנט טוב יותר, אבל מו"לים עדיין צריכים לקבל תשלום, אז אנחנו חושבים שזהו למעשה הפתרון הנכון, ואנחנו שמחים לבצע התאמות לאורך הדרך."
כלי תקשורת פתחו בסדרה של צעדים משפטיים נגד חברות בינה מלאכותית, והאשימו אותן בהפרת זכויות יוצרים. במקביל, כמה חברות בינה מלאכותית ומו"לים חדשים יצרו שותפויות המכסות לא רק נתוני אימון אלא גם את עסקי החיפוש.
פרפלקסיטי נתבעה באוקטובר על ידי שני מו"לים שבבעלות News Corp, החברה האם של וול סטריט ג'ורנל, דאו ג'ונס, והניו יורק פוסט – שטענו כי פרפלקסיטי לא הגיבה למכתב שבו פירטו את חששותיהם לגבי השימוש של החברה בחומר המוגן בזכויות יוצרים שלהם.
סריניבאס אמר באותה עת כי פרפלקסיטי רצתה ליצור שותפויות חלוקת הכנסות עם מוציאי חדשות, ושהחברה תוכל לספק למוציאים לאור צ'אטבוטים שיענו לשאלות המשתמשים באתרי האינטרנט של המוציאים לאור, תוך שימוש בתוכן שלהם כדי לספק תשובות.
"אני לא חושב שרק רישוי תוכן הוא הפתרון היחיד", אמר סריניבאס באוקטובר. "אני גם לא אומר שתוכנית המוציאים לאור שלנו כבר קיימת. אני מקווה ששיחות נוספות יובילו אותנו לשם."
בחודש יוני האחרון דווח, כי ה-BBC איימה בתביעה משפטית נגד פרפלקסיטי, בטענה ש"מודל ברירת המחדל של הבינה המלאכותית" של חברת הבינה המלאכותית אומן באמצעות תוכני ה-BBC, ובדרישה להפסיק את כל גירוד התוכן שלה, למחוק את כל עהותקים ששימשו לפיתוח בינה מלאכותית ולהציע פיצוי כספי על הפרת זכויות היוצרים לכאורה.
26/08/25 14:15
7.69% מהצפיות
מאת אנשים ומחשבים
מפקד ממר"ם החדש עתיד להיות אל"מ גלעד יבין – כך נודע לאנשים ומחשבים. הוא ייכנס לתפקידו לאחר טקס חילופי המפקדים של היחידה, שייערך בשבוע הבא.
אל"מ יבין יחליף את אל"מ רחלי דמבינסקי, שמפקדת על אחת היחידות הטכנולוגיות החשובות של צה"ל מאז 2023. היא החליפה בתפקיד את יעל גרוסמן, אז אלוף משנה, שהועלתה לדרגת תת אלוף ומונתה למפקדת לוט"ם. אל"מ דמבינסקי היא האישה החמישית שמפקדת על ממר"ם מאז הקמתה ב-1959.
לממר"ם, מרכז המחשבים ומערכות המידע של צה"ל, מלאו השנה 66 שנים. היחידה ממוקמת בלוט"ם – החטיבה להתעצמות טכנולוגית מבצעית באגף התקשוב וההגנה בסייבר.
שתי נשים בדרגת תא"ל באגף התקשוב
בקרוב, בפעם הראשונה, יהיו באגף התקשוב שתי נשים בדרגת תת אלוף: תא"ל גרוסמן, מפקדת יחידת לוט"ם, תמונה לראשת מטה האגף, ואילו אל"מ דמבינסקי, מפקדת ממר"ם היוצאת, תמונה לראשת חטיבת הספקטרום והרשת באגף ותועלה לדרגת תא"ל.
אל"מ רחלי דמבינסקי. תמונה לראשת חטיבת הספקטרום והרשת באגף, ותועלה לדרגת תא"ל. צילום: אשר אזולאי
גרוסמן שימשה כמפקדת ממר"ם מאז יוני 2020 ועד לחילופי התפקידים לפני כשנתיים. היא הייתה המפקדת ה-19 של היחידה והאישה הרביעית בתפקיד. במינויה לתפקיד האחרון, כמפקדת לוט"ם, אל"מ (דאז) גרוסמן אמרה כי היא לא שברה תקרת זכוכית, אולם עדיין, המינוי היה ראוי לציון, משום שזו הייתה הפעם השנייה בלבד שבה מתמנה אישה כמפקדת בית התוכנה הצה"לי הענק. קדמה לה תא"ל (מיל') אילה חכים, שגם היא הייתה מפקדת ממר"ם. לאחר שנות שירותה בצה"ל, תא"ל (מיל') חכים יצאה לאזרחות, ועד לאחרונה היא שימשה מנמ"רית בנק מזרחי-טפחות.
אל"מ דמבינסקי שימשה, לפני מינויה למפקדת ממר"ם, כראשת מחלקת מעוף וראשת מחלקת עתיד בלוט"ם. היא התגייסה לאגף התקשוב בשנת 2000 ועשתה בו את מרבית תפקידיה בצה"ל. דמבינסקי החלה ביחידת שהם (כיום יחידת מצפן), ושם היא הייתה אמונה על פיתוח מערכות ההתרעה לאזרח והשילוביות הרב זרועית. לאחר מכן היא יצאה ללימודי הנדסה, שבסופם הגיעה לממר"ם. ביחידה היא הובילה את זמינות המערכות והתהליכים המבצעיים בתחום הדאטה סנטרים ובעולמות ה-IT, והייתה ממקימות תחום ההגנה בסייבר. לפני מינויה לעמוד בראש מחלקת מעוף היא עסקה בתפקידי מחקר ופיתוח במצו"ב.
ביולי אשתקד חשפה אל"מ דמבינסקי בכנס של אנשים ומחשבים כי מתחילת המלחמה, ממר"ם חוותה יותר משלושה מיליארד ניסיונות תקיפה בסייבר. הנתון שווה למספר המתקפות של איראן והחיזבאללה בלבד על ישראל בשלושת חודשי המלחמה הראשונים.
26/08/25 10:01
6.73% מהצפיות
מאת אנשים ומחשבים
משתתפי.ות תוכנית "אקו-טק" של עמותת מחשבה טובה לא מתבטלים בחופש הגדול: בני נוער מהערים לוד, פתח תקווה ומזרח ירושלים הפכו את החופש הגדול לתקופה של עשייה חברתית, יזמות טכנולוגית ותרומה משמעותית לקהילה. כך, קבוצות בני נוער מתוכנית "אקו-טק" של עמותת מחשבה טובה הקימו אתרים לקידום עסקים קטנים כחלק מיישום הכלים שלמדו בתוכנית הטכנולוגית.
בלוד, צוות של בוגרות התוכנית, בהן תהילה, ג'אנה ואביה (בנות 15), בנו אתר מתוק במיוחד לעסק של סיוואר, שמכינה קינוחים ועוגיות ביתיות.
הנערות מספרות על האתגר: "היה לנו מורכב לבנות אתר בשתי שפות כדי לסייע לבעלת העסק להתפתח ולהצליח. אחרי שנתיים קשות לבעלי עסקים בכל המדינה, הצלחנו לבנות לה אתר יפה ושימושי בשתי השפות, ואנחנו גאות במה שהצלחנו לעשות עבורה". האתר המקצועי מותאם לדוברי עברית וערבית, כולל עיצוב מותאם אישית, תמונות מרהיבות ומידע על העסק.
בפתח תקווה, בנו בוגרי התוכנית במסגרת ההתמחות אתר חדש לבעלת עסק של קייטרינג אתיופי. הם לא בנו רק אתר, אלא סיפור שלם שחיבר בין טעמים, מסורת וקשר אנושי. והכל סביב התרבות האתיופית העשירה.
מיכל (בת 14) מספרת: "ישבנו בכיתה, עבדנו ביחד על האתר, ועם הזמן קלטנו שזה לא סתם אתר. זה משהו שמחבר את האוכל, התרבות והמשפחה של הקייטרינג האתיופי לעולם. הרגשנו שאנחנו עושות משהו אמיתי, שמביא כבוד למה שחשוב לנו ונותן לזה מקום באינטרנט. למדנו בקורס של מחשבה טובה איך בונים אתר וויקס (Wix) מאפס, איך משלבים בינה מלאכותית בעיצוב ובתוכן ואיך עובדים בצוות ומציגים תוצר מקצועי – ואת הכל יישמנו בפועל לטובת העסקים בעיר שלנו וזה מאוד מספק ומרגש.
בני.ות הנוער הנערים הם בוגרי התוכנית השנתית "אקוטק" של עמותת מחשבה טובה, המעניקה לבני נוער הכשרה טכנולוגית בשילוב יזמות עסקית, במטרה להקנות להם כישורי למידה וחיים חיוניים. במהלך התוכנית, המשתתפים בונים אתרים ורוכשים ידע ביזמות עסקית-חברתית.
המטרה היא לתת לבני הנוער ניסיון פרקטי להתנסות במשימות אמיתיות ולקבל הבנה בתהליכי פיתוח אתרים, עבודה בצוות ויצירת קשר עם לאוחות , ובו בזמן לחזק את בעלי העסקים, שרבים מהם התמודדו עם קשיים בשנים האחרונות. הם לומדים לבנות אתרים מאפס בפלטפורמ תוויקס, משתמשים בבינה מלאכותית לעיצוב ותוכן ויוצרים מוצר מותאם אישית לכל עסק.
אורנית בן-ישר, מנכ"לית עמותת מחשבה טובה: "מרגש לפגוש בני נוער איכותיים ויצירתיים שמוכנים להשקיע ולתרום לבעלי עסקים קטנים בעיר ולקדם עבורם את העסק שלהם בזכות הכישורים והכלים שקיבלו בתוכנית "אקו-טק". זו בדיוק כוחה של קהילה – לתת מכל הלב ולחזק את החברה בתקופה מורכבת".
התמונות מאושרות לפרסום – "באדיבות עמותת מחשבה טובה"
26/08/25 12:18
6.73% מהצפיות
מאת אנשים ומחשבים
טיקטוק (TikTok) מפטרת מאות עובדי ניטור תוכן בבריטניה ובאסיה. הרשת החברתית הפופולרית, מבוססת סרטוני הווידיאו הקצרצרים, הודיעה לעובדיה בלונדון כי היא מתכננת לצמצם מאות משרות בצוותי מיתון התוכן והאבטחה שלה, כך על פי דיווחים שונים במדיה העולמית. החברה הסבירה שהמהלך נועד להעביר את הפעילות למשרדים אחרים באירופה, וכן להרחיב את ההישענות על בבינה מלאכותית לטובת שיפור תהליכי הפיקוח. במייל פנימי שנשלח לעובדים צוין כי משימות בדיקת/מיתון תוכן ובקרת איכות לא ינוהלו עוד מלונדון. בעקבות זאת נערכה אסיפת עובדים לדון בצעדים הבאים.
הקיצוצים צפויים להשפיע על "כמה מאות" משכירי החברה בבריטניה, בה מעסיקה טיקטוק מעל 2,500 עובדים, וכן על מועסקים בדרום מזרח אסיה. לפי מספר דיווחים מוקדם יותר החודש – גם בודקי תוכן של החברה בברלין, גרמניה, פוטרו. על פי איגוד עובדי התקשורת (CWU), כ-300 עובדים במחלקת האמון והבטיחות בלונדון יושפעו ישירות מההחלטה. Union busting won’t win. TikTok has launched mass redundancies right in the middle of a CWU/UTAW recognition campaign. We’re calling out these cynical tactics and backing moderators all the way. The right to unionise will not be denied.https://t.co/mJJhatS7fm
— CWU (@CWUnews) August 22, 2025 טיקטוק ציינה כי עובדים שנפגעו מהקיצוצים יוכלו להגיש מועמדות למשרות אחרות בחברה, ויקבלו עדיפות אם יעמדו בדרישות הבסיסיות.
החלטתה של טיקטוק מתרחשת במקביל ליישום חוק הבטיחות המקוונת של בריטניה (Online Safety Act 2023), שמחייב פלטפורמות דיגיטליות כמותה להגן על ילדים, להסיר תכנים בלתי חוקיים ו"לרסן" חומרים מזיקים. למרות הסמיכות המעניינת הזו, הנהלת טיקטוק טוענת כי ההחלטה היא חלק מארגון מחדש עולמי, שמטרתו לרכז את הפעולות במספר מצומצם של מיקומים מרכזיים, דוגמת ליסבון ודבלין, ולשלב טכנולוגיות מתקדמות כמו מודלי שפה גדולים בגישתה לניהול תוכן.
עוד נודע כי טיקטוק גם מתכננת להשיק כליי "אימות גיל" מבוססי למידת מכונה, המעריכים את גיל המשתמש על בסיס דפוסי פעילות – אם כי כלים אלו טרם אושרו על ידי הרגולטורים.
לטענת טיקטוק, כלי ה-AI שלה כבר מסירים כ-85% מ
גורמים שונים מדווחים כי ההנהלה התנגדה למהלך ההתאגדות, מה שהוביל להאשמות מצד CWU על ניסיון לשיבוש ניסיון ההתאגדות. ג'ון צ'אדפילד, מארגן ארצי באיגוד, אמר בנוגע לכך ש-"טיקטוק אינה רוצה בודקי תוכן אנושיים, מטרתה היא שכל העבודה תיעשה על ידי בינה מלאכותית".
מחייב פלטפורמות דיגיטליות להגן על ילדים, להסיר תכנים בלתי חוקיים ו"לרסן" חומרים מזיקים. חוק הבטיחות המקוונת של בריטניה. צילום: Shutterstock
המאמץ להישען יותר על AI – לא החל כעת
יצוין כי זו אינה הפעם הראשונה שבה טיקטוק, הנמצאת בבעלות חברת בייטדאנס (ByteDance) הסינית, בוחרת להחליף מנחי תוכן אנושיים בבינה מלאכותית. כבר באוקטובר 2024, כך על פי דיווח של רויטרס מאותה תקופה, פיטרה החברה מאות עובדים ברחבי העולם, כולל מספר ניכר במלזיה (פחות מ-500 לאחר הבהרה, מתוך דיווחים ראשוניים על למעלה מ-700), כחלק ממעבר מוגבר לשימוש ב-AI בבליל מיתון התוכן בפלטפורמה. אז, דובר החברה צוטט כשאמר: "אנו מבצעים שינויים אלו כחלק ממאמצינו המתמשכים לחזק עוד יותר את מודל התפעול הגלובלי שלנו למיתון תוכן". באותה עת, דווח כי טיקטוק השקיעה שני מיליארד דולר בבטיחות ובאמון, וציינה כי 80% מהתוכן המפר הנחיות הוסר באמצעות שימוש בטכנולוגיות אוטומטיות.
עוד לפני כן, ביולי 2023, עובדי בייטדאנס בברלין אף שבתו במחאה על החלפת כ-150 עובדים בבינה מלאכותית, מה שהוביל לסגירה הדרגתית של מחלקת האמון והבטיחות כולה באזור.
גם באירלנד, במהלך בדיקת עמידה בתקנות ה-Digital Services Act של האיחוד האירופי ביולי 2023, נמצא כי טיקטוק לא עמדה באופן מלא בפרוטוקולי המיתון, אם כי החברה זכתה לשבחים על נכונותה לשתף פעולה ולהשקיע משאבים בעמידה בתקנות.
המהלכים החדשים המדווחים של טיקטוק משקפים מגמה רחבה יותר בתעשיית הטכנולוגיה, שבה חברות מחפשות איזון בין בדיקת ומיתון תוכן יעילות להפחתת ההתערבות האנושית בתהליך. יצוין כי בזמן ש-טיקטוק מתמקדת בהחלפת מודרטורים אנושיים ב-AI, חברות אחרות, כמו מטא, שינו את גישתן לבדיקת ומיתון תוכן בפלטפורמות שלהן – פייסבוק, אינסטגרם ות'רדס – ובחרו במודל "הערות קהילה", המאפשר למשתמשים להוסיף הקשר לפוסטים מטעים. בחירה זו באה במקום הסתמכות על בדיקת עובדות מסורתית ו/או הסתמכות מוגברת על AI. עם זאת, מומחים ומשתמשים רבים מביעים ספקות לגבי הבטיחות והאובייקטיביות של פלטפורמות שהתוכן שמתפרסם בהן לא נבחן בידי בני אדם, ובוחרות להתנהל בתוך התערבות אנושית מצומצמת ככל שניתן.