
אני מבין שמבחינה טכנית יכולים להיות שיפורים אבל בתלכס אני בספק עד כמה רוב האנשים היו מגדירים הפרשים כאלו ככל כך משמעותיים ברמות האלה.
DrKeo כתב:ה-2070RTX יוצא ב-500$, לא ב-600$ (אולי התבלבלת עם הגרסת פאונדרס המואצת), אבל מה זה משנה? הרי ה-2070RTX כנראה אוכל בלי מלח כל דבר שיש ל-AMD היום בשוק. NVIDIA יוציאו בעתיד הקרוב גם 2060 ו-2050 וכך הלאה. אז בעצם מה זה משנה שיש כל מני כרטיסי VEGA או סדרה 1000 בשוק? אף אחד מהם לא מתחרה בסדרה 2000 וכמובן שסדרה 1000 לא מאויימת בשום צורה מVEGA או סדרה 500 של AMD. ברגע שNVIDIA תרגיש מאויימת בצורה כלשהי בגלל חיתוכי מחיר מAMD או סדרת 7nm, הם פשוט יוזילו את סדרה 1000 (שממילא נמצאת כרגע בעודפי יצור, אפשר למצא 1080GTX בכמעט 400$) ויוציאו את הכרטיסים הנמוכים יותר של סדרה 2000.
DrKeo כתב:אני לא יודע אם יש ל-NVIDIA יותר מדי בעיה עם העתיד. דבר ראשון AMD לא תחרות כבר שנים, למשל סדרה VEGA שהיה בה כרטיס טוב ותחרותי אחד בודד (VEGA56) יצאה שנה ו-3 חודשים אחרי סדרה 1000. כלומר NVIDIA ישבה לה ללא תחרות כלל במשך סדרה שלמה (הרי חיי סדרה תמיד היו שנה וחצי) וכש-VEGA סופסוף יצא, הוא היה כל כך underwhelming שהם הרשו לעצמם להמתין עוד שנה שלמה עד לשיגור של סדרה 2000.
DrKeo כתב:דבר שני, הכרטיסים של סדרה 2000 מתוייגים כ-RTX ולא כ-GTX מסיבה מאוד ברורה: הם רוצים שאנשים ידעו שאלה כרטיסים שמתמחים ב-RT. יש שם הרבה סיליקון מבוזבז ל-RT? אחלה, זה רק אומר שהם יכולים להעיף אותו ולהוציא כרטיס זהה בשם 2070GTX ללא הרכיבי RT שימכר בפחות.
DrKeo כתב:אתה עושה סלט, הליבות INT לא נועדו ל-RT. הן קיימות כי זה הכיוון שהתעשיה לוקחת, אפשרות לעשות פעולות ספציפיות כפעולות INT בדיוק נמוך במקום פעולות נקודה צפה שהן יקרות בהרבה. AMD כבר עושה את זה דור וחצי עם אפשרות לעשות פעולות INT בדיוק 16 ו-8 ביט, ההבדל היחיד הוא שNVIDIA לקחה את זה לדרגה הבאה עם סיליקון יעודי שמאפשר לבצע אותן בלי לפגוע בביצועי הנקודות הצפות בליבות ה-CUDE הקלאסיות. זה צעד חכם? היו צריכים לזרוק שם עוד ליבות CUDE במקום? אין לי מושג, נגלה בקרוב. העובדה שאין ל-NVIDIA תחרות בשוק הכרטיסים נותנת להם לעשות ניסויים מוזרים שכאלה ואם זה לא יעבוד, הפיצ'רים האלה יעופו עד סדרה 3000 כש-AMD אולי יתאפסו על עצמם ויתחילו לתת תחרות.
DrKeo כתב:ה-ESRAM ב-ONE נועד לפצות על DDR3 שנועד למטרה אחרת לגמרי. כלומר הזיכרון הגדול נועד כמו שאמרת למדיה ומולטי טאסקינג וזה פגע בביצועי משחקים אז ה-ESRAM נמצא שם בשביל לנסות לפצות על הפגיעה בביצועי משחקים לטובת מולטי מדיה ומולטי טסקינג (למרות שאפשר לטעון שאולי ה-ESRAM היה שם תמיד כירושה מהארכיטקטורה של ה-360. כלומר שהם לא הלכו על DDR3 ולכן שמו ESRAM, אולי הם שמו DDR3 בגלל שהיה להם את ה-ESRAM. בכל מקרה, דיון לזמן אחר).
DrKeo כתב:ורק הערה אחרונה, זה לא משעשע שאתה כבר שנים הצ'מפיון של AMD במיוחד בקטגורית "אבל AMD שמים טכנולוגיות עתידיות על הסיליקון ולכן זה נוגס להם בביצועים הקלאסים"
swym כתב:אני לא יודע מתי ה-2070 יגיע באמת למחיר של 500$ כי אין אותו אפילו בפרהאורדר, אבל אם אנחנו יכולים ללמוד מה-2080 אז נכון לעכשיו הגרסאות ה"רגילות" עולות ברובן כמו ואפילו יותר מגרסת הפאונדרס... 800$ וצפונה (אם יש במלאי)
אני מבין שAMD עושה לך טוויצ'ים בעין, אבל אני אפילו לא מדבר על זה אלא על נוידיה מול נוידיה: למה לקנות 2080 RTX ב-800$ וצפונה, כשה-1080Ti עם ביצועים קרובים נחתך לא מזמן כבר לתג מחיר של 600$? למה להזמין בעוד חודש ומשהו 2070 RTX ב-600$ (או נניח ב-500$ יום אחד בעתיד) כשה-1080 GTX נחתך כבר לתג מחיר של 450$ וצפוי לרדת אפילו עוד עד שתהיה זמינות במלאי? זו פרמיה עצומה של מאות דולרים על כרטיסי מסך עם ביצועים דומים ותוספת של RTX ON.
הבעיה של כרטיסי המסך החדשים של Nvidia בטווח המחירים הזה היא יותר התמחור הגבוה שלהם (שנובע מסיליקון) ומצד שני המלאי הגדול של כרטיסי מסך ישנים של Nvidia.
swym כתב:הנקודה שבה AMD מפסיקה להיות תחרותית בשני הדורות האחרונים היא בכרטיסים שמושקים בקו ה-500$ וצפונה, ומתחת לזה המצב היה מסורתית הפוך. אבל הסיבה היא לא רק שבשני הדורות האחרונים AMD משיקים את כרטיסי הHigh End באיחור גדול, אלא שהם בוחרים בפתרונות יקרים שמיועדים במקביל גם לשוק המקצועי (זכרונות HBM, פוקוס על double-precision ועוד) וזה בא על חשבון מי שרוצה לקנות כרטיס למטרות גיימינג. אבל זה נשמע שNvidia מאבדת עכשיו פוקוס בעצמה בגלל הRT - שגם הוא מנפח את מחירי הכרטיסים.
זה לא מספיק כמובן בשביל שAMD תהפוך שוב לרלוונטית בטווח המחירים הזה: התמחור הגבוה והצ'יפ המבוזבז שNvidia דוחפת לכרטיסי הRTX אולי גורם לכרטיסים שלה להפוך לפחות תחרותיים, אבל הכרטיסים הבאים של AMD צריכים בעצמם לדחוף הרבה יותר כח עיבוד (ולצרוך פחות חשמל) בשביל ליישר בכלל קו עם הדור החדש. כרטיס חדש שרץ על ארכיטקטורה של 7nm? יכול להיות בדיוק מה שיתן להם את שני הדברים האלו.
swym כתב:זו אפשרות ואני אפילו אשמח לקבל אותה כי 2070 זה הsweet-spot לדעתי, אבל זה יהיה סוג של ויתור על הכיוון הגדול של Nvidia וכל המיתוג שהיא עשתה לזה, בטח אם רוב האנשים יעדיפו לשלם הרבה פחות ולקבל כרטיס עם ביצועים זהים רק בלי פיצ'ר לא בשל כזה או אחר. קצת כמו שמיקרוסופט תוציא Xbox One בלי קינקט![]()
swym כתב:קרא שוב: לא כתבתי שהן נועדו לRT אלא שהן נועדו לAI. אתה התייחסת לליבות AI וליבות INT כשני אלמנטים נפרדים בצ'יפ (בנוסף לליבות ה"רגילות", וליבות הRT) - אבל חישובי INT זה מה שעושות ליבות הAI. יש לך ליבות כאלו גם ב-TPU של גוגל, ואפילו בצ'יפים של אפל/קוואלקום/וואווי, כל אחת עם מיתוג קצת שונה לרכיבים שעושים את אותה הפעולה בגדול.
swym כתב:האמת היא שהזיכרון הגדול ב-One לא נועד (רק) למדיה ומולטיטאסקינג אלא בהתאם לדרישות מפתחים לקונסולה שתאפשר יותר זיכרון פנוי לעבוד איתו מאשר 4GB מינוס מערכת הפעלה, אבל זה פחות רלוונטי (הם חשבו ש8GB GDDR לא יהיה זמין בזמן, סוני הימרו על 4GB GDDR והעלו את זה ברגע האחרון אחרי לחץ וכי פתאום היתה זמינות. הESRAM היא בכל מקרה משהו שונה מהEdRAM שהיה ב-360 עם ארכיטקטורה שונה לחלוטין ככה שאין קשר)
הנקודה היא שזה סיפור דומה: המטרה של ה-RT היא חישובי תאורה, אבל לליבות הRT אין מספיק כח (/רוחב פס) בשביל לעשות את זה כמו שצריך ולכן צריך משהו שישלים את זה - והפיתרון הוא אינטרפולציה באמצעות ליבות AI יעודיות שצריך להוסיף גם לצ'יפ. זה בדיוק מקרה של צורך בעוד סיליקון לפיצוי על בחירה שנעשתה בשביל לקדם מטרה מסוימת. לא אמרתי שהמטרה היא אותה המטרה...
swym כתב:יש טכנולוגיות עתידיות מוצדקות, ויש כאלו שלא. ה-Async Compute של AMD למשל מזה כמה דורות בהחלט תורם לכרטיסי מסך ישנים שלהם ככל שזה מאומץ יותר בתעשייה, ומצד שני זה לא כאילו 30% מעלויות הפיתוח או הסיליקון בכרטיס הלכו על פיצ'רים כאלו. הנגיסה היתה בשוליים.
החשש שלי הוא שמלבד העלויות הגבוהות כאן, אצל Nvidia הRTX לא יהיה כזה: אני לא בטוח שזה בכלל יהפוך לסטנדרט בשנים הקרובות, וגם אם כן אז אני חושב שהטכנולוגיה כל כך בתולית שהדור הזה כבר לא יצליח להריץ את המשחקים שRT יהיה מוטמע בהם מההתחלה ועד הסוף. כמו שאתה מפקפק אולי בצדק ביכולת של AMD להתחרות בכרטיסי ה500$ וצפונה, אני יכול לפקפק אולי בצדק ביכולת של Nvidia ליצור דברים שהופכים לסטנדרט בתעשייה ולא לעוד חומרת proprietery יקרה ומיותרת (ע"ע Gsync, Physx).
Uncle Pey'j כתב:על הפנים. זה בטח גם אומר ש-Navi יחטוף דחייה כי אין מצב שהם ישחררו אותו בכזו סמיכות ל-Vega 7nm.
משתמשים הגולשים בפורום זה: Bing [Bot] ו־ 33 אורחים